Geleitete Nachricht. Verbindungsschicht

Frequenzteilung der Signale (Kanäle)

Lassen Sie uns die Hauptphasen der Bildung eines Mehrkanalsignals mit Frequenzmultiplex (FDM) verfolgen. Zunächst werden entsprechend den übermittelten Nachrichten die Primärsignale ein ich(T) mit Energiespektren, ..., modulieren die Unterträger jedes Kanals. Diese Operation wird von Modulatoren, ..., Kanalsendern durchgeführt. Die Spektren der am Ausgang der Frequenzfilter erhaltenen Kanalsignale,, ..., belegen jeweils die Frequenzbänder,, ..., (Abb. 9.2).


Reis. 9.2. Frequenzmultiplex und Kanaltrennung

Wir gehen davon aus, dass jede der zu übertragenden Nachrichten ein ich(T) belegt die Bandbreite eines Standard-PM-Kanals. Während der Bildung des Gruppensignals wird jedes Kanalsignal S ich(T) wird ein Frequenzband zugewiesen, das sich nicht mit den Spektren anderer Signale überschneidet (Abb. 9.3). Dann ist das gesamte Frequenzband n-Kanalgruppe ist gleich

. (9.8)


Abbildung 9.3 Umrechnung von Spektren in einem System mit FDM

Angenommen, SSB wird angewendet und jedes Kanalsignal belegt eine Bandbreite

für das Spektrum des Gruppensignals erhalten wir

. (9.10)

Das Basisbandsignal wird in ein lineares Signal umgewandelt und über eine Kommunikationsleitung (Übertragungsweg) übertragen. Auf der Empfangsseite nach der Umwandlung des linearen Signals in ein Gruppensignal, letzteres mit Bandpass-Kanalfiltern F k mit Bandbreite und Demodulatoren wird in Kanalnachrichten umgewandelt, die an den Empfänger gesendet werden.

Kurz gesagt, in Mehrkanal-FDM-Systemen wird jedem Kanal ein bestimmter Teil der gesamten Basisbandbandbreite zugewiesen. Zum Eingang des Empfangsgeräts ich Kanal gleichzeitig Signale S ich von allen n Kanäle. Verwenden von Frequenzfiltern F i nur die Frequenzen, die zu den gegebenen gehören ich Kanal.

Aufgrund unvollkommener Eigenschaften von Bandpasskanalfiltern tritt ein gegenseitiges Übersprechen zwischen den Kanälen auf. Um diese Interferenz zu reduzieren, ist es notwendig, Schutzfrequenzintervalle zwischen den Kanälen einzuführen.

Auf diese Weise

Dies bedeutet, dass in FDM-Systemen nur etwa 80 % der Bandbreite des Übertragungsweges effizient genutzt werden. Außerdem muss eine sehr hohe Linearität des gesamten Gruppenpfades bereitgestellt werden.

Zeitaufteilung der Signale (Kanäle)

Bei der temporären Methode der Kanaltrennung (TDM) wird der Gruppenpfad mit synchronen Schaltern des Senders ( Zur Spur) und Empfänger ( K pr) ist abwechselnd zum Übertragen der Signale jedes Kanals des Mehrkanalsystems vorgesehen. (In modernen Geräten werden praktisch keine mechanischen Schalter verwendet. Stattdessen werden elektronische Schalter verwendet, die beispielsweise an Schieberegistern hergestellt werden.) Im VDK wird zuerst das Signal des 1. Kanals übertragen, dann der nächste usw . zum letzten Kanal nach Nummer n, danach wird der 1. Kanal wieder angeschlossen und der Vorgang mit einer Abtastfrequenz wiederholt (Abbildung 9.4).

Als Kanalsignale in TDM-Systemen werden zeitlich nicht überlappende Folgen modulierter Pulse verwendet Sitzen); Satz Kanalimpulse - Gruppensignal S G ( T) wird über die Kommunikationsleitung übertragen. Schalteraktion auf der Empfangsseite K pr kann mit dem Schlüssel identifiziert werden, der die Leitung mit dem Empfänger verbindet ich-ter Kanal nur für die Zeit des Impulsdurchgangs ich-ter Kanal ("Zeitfilter" F i). Nach dem Demodulieren der Nachricht ein ich(T) gehe zu ich an den Empfänger.

Für den normalen Betrieb eines Mehrkanalsystems mit einem VRK ist ein synchroner Betrieb von Switches auf Sende- und Empfangsseite notwendig. Oftmals wird dazu einer der Kanäle durch die Übertragung spezieller Synchronisationsimpulse für den zeitlich koordinierten Betrieb belegt. Zur Spur und Zu pr.


Reis. 9.5. Zeiteinteilung

zwei Signale mit AIM

In Abb. 9.5 zeigt die Zeitdiagramme eines Zweikanalsystems mit AIM. Der Nachrichtenträger ist hier eine Folge von Impulsen mit einem Punkt

, (9.12)

vom Taktgenerator (GTI) zum Pulsmodulator (MI) kommen. Das Gruppensignal (Abb. 9.5, a) geht an den Schalter. Letzteres spielt die Rolle von "temporären" parametrischen Filtern oder Schlüsseln, deren Übertragungsfunktion . (Abbildung 9.5, b) ändert sich synchron (mit einer Periode) und phasengleich mit Änderungen der Übertragungsfunktion:

(9.13)

Dies bedeutet, dass innerhalb jedes Zeitintervalls nur der te Impulsdetektor ID- mit der Übertragungsstrecke verbunden ist. Die als Ergebnis der Erkennung empfangenen Nachrichten gehen an den Empfänger der PS-Nachrichten.

Operator, beschreibt die Funktion des Schlüsselfilters, schneidet die Intervalle, die einer Periode folgen, aus dem Signal aus und verwirft den Rest des Signals.

Bezeichnet hier nach wie vor das Intervall, in dem die Signale der i-ten Quelle übertragen werden.

Bei der Zeitaufteilung hat die gegenseitige Beeinflussung hauptsächlich zwei Gründe. Der erste besteht darin, dass lineare Verzerrungen, die aus dem begrenzten Frequenzband und Unvollkommenheit der Amplituden-Frequenz- und Phasen-Frequenz-Kennlinien jedes physikalisch realisierbaren Kommunikationssystems entstehen, die Impulsnatur der Signale verletzen. Wenn nämlich das Spektrum bei der Übertragung von modulierten Pulsen endlicher Dauer begrenzt wird, dann „spreizen“ sich die Pulse aus und wir erhalten anstelle von Pulsen endlicher Dauer zeitlich unendlich ausgedehnte Prozesse. Bei der Zeitteilung von Signalen führt dies dazu, dass Impulse von einem Kanal Impulsen von anderen Kanälen überlagert werden. Mit anderen Worten tritt zwischen Kanälen gegenseitiges Übersprechen oder Intersymbolinterferenz auf. Außerdem kann es zu gegenseitiger Beeinflussung aufgrund eines unvollkommenen Timings der Taktimpulse auf der Sende- und Empfangsseite kommen.

Um den Grad der gegenseitigen Interferenz zu reduzieren, ist es notwendig, "Guard"-Zeitintervalle einzuführen, die einer gewissen Streuung des Signalspektrums entsprechen. Bei Mehrkanal-Telefoniesystemen beträgt die Bandbreite der effektiv übertragenen Frequenzen also 3100 Hz; nach dem Kotelnikov-Theorem ist der Minimalwert = 2 = 6200 Hz. In realen Systemen wird die Pulswiederholrate jedoch mit einem gewissen Spielraum gewählt: = 8 kHz. Um solche Pulse im Single-Channel-Modus zu übertragen, ist eine Bandbreite von mindestens 4 kHz erforderlich. Bei der Zeitteilung der Kanäle belegt das Signal jedes Kanals dasselbe Frequenzband, das unter idealen Bedingungen nach dem Kotelnikov-Theorem aus der Beziehung (ohne Synchronisationskanal) bestimmt wird

, (9.14)

wo , was gleich der gesamten Systembandbreite in der Frequenzteilung ist.

Obwohl FDC und FDC in Bezug auf die Effizienz der Nutzung des Frequenzspektrums theoretisch gleichwertig sind, sind FDC-Systeme unter realen Bedingungen den FDCs in diesem Indikator aufgrund der Schwierigkeiten bei der Reduzierung des gegenseitigen Interferenzpegels während der Signaltrennung merklich unterlegen . Gleichzeitig ist der unbestreitbare Vorteil des VRC eine Verringerung des nichtlinearen Rauschpegels aufgrund der unterschiedlichen Wirkungsdauer der Impulse verschiedener Kanäle; bei den VRK-Systemen ist der Crest-Faktor niedriger. Bemerkenswert ist auch, dass die VDK-Ausrüstung viel einfacher ist als die PRK-Ausrüstung. Die am weitesten verbreitete Anwendung von VRM findet sich in digitalen Systemen mit PCM.

Prüfen der Verfügbarkeit des Übertragungsmediums.

Implementierung von Fehlererkennungs- und Korrekturmechanismen. Dazu werden auf der Sicherungsschicht die Bits in Frames (Frames) gruppiert, die korrekte Übertragung jedes Frames wird sichergestellt, indem eine spezielle Bitfolge am Anfang und am Ende jedes Frames zur Markierung platziert wird, und berechnet auch eine Prüfsumme.

Steuerung der Kommunikationsparameter (Geschwindigkeit, Wiederholung)

Die in lokalen Netzwerken verwendeten Link-Layer-Protokolle haben eine Struktur von Links und Möglichkeiten, diese nur für ein Netzwerk mit einer bestimmten Topologie zu adressieren. Topologien umfassen Bus, Ring und Stern. Beispiele für Verbindungsschichtprotokolle sind Ethernet, Token Ring, FDDI, 100VG-AnyLAN.

In Weitverkehrsnetzen sorgt die Sicherungsschicht für den Austausch von Nachrichten zwischen zwei benachbarten Computern, die durch eine einzelne Kommunikationsleitung verbunden sind. Beispiele für Punkt-zu-Punkt-Protokolle (wie solche Protokolle oft genannt werden) sind die weit verbreiteten PPP- und LAP-B-Protokolle.

Protokolle: IEEE 802.1 (Geräte (Switches, Bridges) werden beschrieben)

Aufgeteilt in LLC - 802.2 und MAC (CSMA / CD) - 802.3,

МАС (Tokenring) - 802.5,

(Ethernet) - 802.4

Ethernet-Frame-Struktur: | 1 | 2 | 3 | 4 | 5 | 6 |

1) Priambel (Beginn der Rahmenübertragung - 8 Byte)

2) Empfängeradresse (2-6 Byte Empfänger-MAC-Adresse, 2 Byte für Ring)

3) Absenderadresse (2-6)

4) Datenfeldlänge (2 Byte)

5) Datenfeld (64 - 1500 Byte)

6) Prüfsumme

LLC-Protokoll: 1- LLC 802.2

| DSAP1byte | SSAP1Byte | Kontrolle 1 Byte | Daten |

2- LLC 802.2 SNAP

| DSAP 2 Byte | SSAP 2 Byte | Kontrolle 3 Byte | Protokollfamilie Typ3Byte | Protokolltyp 2 Byte | Daten |

DSAP - gibt das Zielprotokoll an

SSAP - Ref.-Nr. Senderprotokoll

Control - t um die Verbindung zu kontrollieren

Familientyp - (IPX / SPX, X.25, ATM, TCP / IP = 0)

Protokolltyp - 0 × 0800 - IP, 0 × 0806 - ARP

MAC-Adresse (48 Bit): 3 Typen sind definiert: Individual, Broadcast, Multicast

| 0 | 0 | 22bit | 24bit |

00 ist eine individuelle Adresse, 11 ist eine Broadcast-Adresse, 10 ist eine Gruppenadresse.

22 Bit - Hersteller-Organisationscode

24 Bit - Netzwerkadaptercode


23. KANÄLE T1 / E1.

T1/E1-Kanäle Dedizierte T1/E1-Kanäle sind in den letzten Jahren sehr beliebt geworden, um Unternehmensnetzwerke und Server mit dem Internet zu verbinden. Das liegt an den hohen Datenraten der Kanäle: 1,544 Mbit/s für den T1-Kanal und 2,048 Mbit/s für El.

T1-Leitungen sind Duplex-Digitalschaltungen, die ursprünglich dafür ausgelegt waren, Anrufe zwischen Telefonvermittlungsstellen zu übertragen. Physikalisch erfolgt die Kommunikation über zwei verdrillte Telefonkabelpaare (ein Paar - in eine Richtung, das andere - in die entgegengesetzte Richtung).

AMI Kanal gilt bipolare Kodierung(bipolare Kodierung). Diese Methode hat auch einen anderen Namen - alternative logische Einheiten invertieren(AMI). Die Spannungsfreiheit in der Leitung entspricht Null, und zur Darstellung der Einheiten werden abwechselnd positive und negative Impulse verwendet. Ein Beispiel für eine solche Codierung im Vergleich zur Standarddarstellung (in Form eines NRZ-Codes)

Synchronisation Ich bin.

Eine lange Folge logischer Nullen kann dazu führen, dass der Empfänger die Synchronisation verliert. Um dies zu bekämpfen, bewerben Sie sich bipolare Substitutionsmethode 8 Nullen- (B8ZS).

Jede vom Sender erkannte Gruppe von 8 Nullen wird durch sie durch ein "bedeutungsloses Wort" ersetzt. Beim Empfang von einem Kanal wird die inverse Transformation durchgeführt. Um diese Ersetzungskombination hervorzuheben (als Zeichen für den Beginn ihrer Erkennung), werden sequentielle Übertragungen verwendet, ohne zwei positive zu invertieren (was in der üblichen AMI-Codesequenz nicht akzeptabel ist). Abbildung 5.2 zeigt ein Beispiel für eine solche Ersatzkombination.

Frame-Synchronisierung

Der E1-Kanal besteht aus 24 separaten 64-kbps-Kanälen. Die Aufteilung der übertragenen Informationen in Frames wird angewendet. Die am weitesten verbreiteten Methoden sind D4 und ESF (zusätzlich wird der Ml3-Algorithmus oft in E3-Linien verwendet).

Algorithmus D4

Der Frame enthält 1 Sync-Bit und 24 Datenbytes (siehe Abbildung 5.3). Somit beträgt die Gesamtrahmenlänge 193 Bit.

Eine Gruppe von 12 Frames wird mit einer speziellen 12-Bit-Maske (siehe Abb.) versorgt, die als . bezeichnet wird Rahmenausrichtungssignal(Rahmenausrichtungssignal). Eine Gruppe von 12 Frames heißt super rahmen.

ESF-Algorithmus Der Superframe-Bildungsalgorithmus ESF (Extended SuperFrame) unterscheidet sich dadurch, dass die Superframe-Größe von 12 auf 24 Frames erhöht wurde. In einem solchen Superframe ks 24 Overhead-Bits werden nur 6 für Synchronisationszwecke verwendet. Von den restlichen 18 Bits werden 6 zur Fehlerkorrektur und 12 zur Überwachung des Leitungszustandes verwendet.

Algorithmus M13 Ausgelegt für TZ-Kanäle (44,476 Mbit/s). Der Rahmen enthält 4760 Bit. Davon werden 56 Bit für die Rahmenausrichtung (Rahmensynchronisation), Fehlerkorrektur und Zeilenverfolgung verwendet.

Pulscodemodulation (PCM)

T1-Kanäle waren ursprünglich für die Übertragung von Telefongesprächen gedacht, jedoch über eine digitale Leitung.

Bei einem normalen Telefon wird das Signal im Frequenzbereich von 300 bis 3400 Hz analog übertragen. Pulse Code Modulation (PCM) wird verwendet, um ein analoges Signal in eine digitale Form umzuwandeln. Zu diesem Zweck wird eine ADC-Einheit eingeführt, die die Amplitude des analogen Signals in ein digitales Sample von 8 Bit umwandelt. Die Häufigkeit dieser Messungen wurde unter Berücksichtigung von Nyquist-Theoreme(Nyquist). Gemäß diesem Theorem muss die Abtastfrequenz das Zweifache der Abtastfrequenz betragen, um ein Signal angemessen von der analogen in die digitale Form umzuwandeln. Bei den Telefonkanälen wurde eine Frequenz von 8000 Abfragen pro Sekunde gewählt. Somit muss die digitale Leitung eine Bandbreite von 8 x 8000 = 64 kbps haben.

Multiplexen In der T1-Leitung werden 24 solcher digitaler Kanäle mit 64 kbit/s zusammengefasst. Der Gesamtdurchsatz beträgt somit 1,544 Mbit/s. Für die Vereinigung gilt Zeitmultiplexing- Zeitmultiplex (TDM). Das gesamte zur Verfügung stehende Frequenzband ist in elementare Zeitintervalle von 125 µs unterteilt. Das Gerät monopolisiert das gesamte Frequenzband für die Periode eines solchen Elementarintervalls.

Dank Multiplexing auf der T1-Leitung können Sie gleichzeitig Audiosignale, digitale Daten und Videosignale übertragen. Bei Bedarf kann die gesamte verfügbare Bandbreite von 1,544 Mbit/s von einem Datenstrom monopolisiert werden.

Systemstruktur Die Abbildung zeigt einen möglichen Aufbau eines Endgerätes für den Betrieb an einer T1-Leitung. Hier ist CSU eine Kanaldiensteinheit und DS1 ist eine Datendiensteinheit.

Bruchlinien T1 Der Benutzer kann nur einen Teil des T1-Kanals mieten. Gleichzeitig hat er die Möglichkeit, für eine beliebige Anzahl (von 1 bis 24) DSO-Kanälen (Digital Sygnal 0) mit 64 Kbit/s zu bezahlen.

E1-Kanäle In Europa hat 1TU - die Internationale Fernmeldeunion - eine etwas andere Klassifizierung solcher digitaler Kanäle vorgeschlagen. Die Basis ist ein E1-Kapal mit 30 USO-Kanälen (je 64 Kbps) und zusätzlich 1 Kanal für die Synchronisation und 1 Kanal für die Übertragung von Serviceinformationen. Die Bandbreite des E1-Kanals beträgt 2,048 Mbit/s.

Übertragungsmedium Zur Organisation von T1-Kanälen können verschiedene Medien verwendet werden. Zum Beispiel: zwei Paare von verdrillten Leitern - ermöglichen Ihnen die Organisation eines T1-Kanals; 4 T1-Kanäle können in einem Koaxialkabel angeordnet werden; Mit UHF-Kabel können Sie 8 T1-Leitungen platzieren; Glasfaserkabel können bis zu 24 T1-Leitungen enthalten.


ISDN-Netze

Als Alternative zu T1/E1-Anschlüssen werden häufig Integrated Services Digital Networks (ISDN) verwendet. Der Unterschied liegt hauptsächlich in der Zahlungsmethode. Für den gesamten (oder einen Teil) des T1-Kanals wird eine feste (eher hohe) Abonnementgebühr erhoben. In ISDN-Netzen wird nur die Verbindungszeit verrechnet.

Die ISDN-Technologie ermöglicht die gleichzeitige Übertragung von Sprache und digitalen Daten und bietet Hochgeschwindigkeitsverbindungen zu globalen Netzwerken. Diese Technologie wurde entwickelt, um die integralen Anforderungen eines kleinen Büros zu erfüllen.

Wie die T1-Kanäle basiert diese Technologie auf der Verwendung eines 64-kbps-Digitalkanals. Die analogen (Sprach-)Daten werden 8000 Mal pro Sekunde vorabgetastet (abgetastet). Jeder Abtastwert repräsentiert 8 Informationsbits. Das heißt, PCM wird verwendet.

B-Kanal Der Hauptbestandteil jeder ISDN-Leitung ist ein unidirektionaler B-Kanal mit 64 kbps. Es kann digitalisierte Audio- oder Videodaten oder digitale Daten selbst übertragen.

D-Kanal Wird verwendet, um Serviceinformationen zu übertragen. Dies sind beispielsweise Verbindungsaufbau- und -abbausignale. Das gesamte B-Kanalband ist nur für die Übertragung von Nutzinformationen vorgesehen.

Es gibt zwei Standard-ISDN-Kanalkonfigurationen: BRI und PRI /

BRI-Schnittstelle Es ist eine logische Kombination aus zwei 64-kbps-B-Kanälen und einem 16-kbps-D-Kanal. BRI (Basic Rate Interface) -I Nennraten-Übertragungsschnittstelle.

BRJ ist die optimale Konfiguration für Remote-Benutzer und kleine Büros. Die Gesamtbandbreite beträgt 128 Kbps und der D-Kanal wird nur für die Übertragung von Serviceinformationen verwendet.BRI ermöglicht Ihnen den Anschluss von bis zu 8 Geräten (Telefon, Digital und Video).

Für den D-Kanal-Austausch wird das SS7-Protokoll (Signaling System Number 7) verwendet.

PRI-Schnittstelle PRI (Primary Rate Interface) – Basisraten-Übertragungsschnittstelle. Diese Schnittstelle entspricht der maximalen Übertragungsgeschwindigkeit der T1-Leitung. Die PRI-Konfiguration besteht aus 23 64-kbit/s-Kanälen (B-Kanälen) und einem 64-kbit/s-D-Kanal. Daher kann der Benutzer mit einer Geschwindigkeit von 1,472 Mbps übertragen.

Bei europäischen ISDN-Leitungen entspricht die PRI-Konfiguration 30 B-Kanälen (da E1 genau so viele Kanäle zur Übertragung von Nutzinformationen enthält).

Benutzerverbindung Abbildung 5.5 zeigt eine typische Hardwarekonfiguration eines ISDN-Teilnehmers.

NT1-Gerät (Network Terminator 1) wird verwendet, um einen Teilnehmer an einen digitalen Kanal anzuschließen.

Das Gerät NT2 (Network Terminator 2) nimmt eine Zwischenebene zwischen NT1 und einem beliebigen Endgerät ein. Dies können ISDN-Router und digitale PBX sein.

Als Endgerät des ersten Typs TE1 (Terminal Equipment 1) wird ein Endgerät angesehen, das mit Geräten des Typs NT verbunden werden kann. Dies sind z. B. ISDN-Arbeitsplätze, Faxgeräte, ISDN-Telefone. Zu Endgeräten des zweiten Typs TE2 (Terminal Equipment 2) zählen alle Geräte, die nicht direkt an NT2 angeschlossen werden können (analoge Telefone, PCs etc.), sondern Verwenden Sie dazu einen speziellen Terminaladapter TA (Terminal Adapter).

Ausrüstung Die Verkabelung erfolgt mit einem verdrillten Kupferdraht (Twisted Pair) der UTP-Klasse von mindestens 3 (er ermöglicht eine Übertragung mit Geschwindigkeiten bis zu UMbit / s). Die BR1-Schnittstelle erfordert ein UTP-Paar und die PRI-Schnittstelle erfordert 2 UTP-Paare.

Das NT1-Gerät ist recht einfach aufgebaut, daher wird es oft in Endgeräte integriert.

Die ISDN-Ausrüstung des Benutzers kann eingebaut oder eigenständig sein. Das Einbaugerät ist kombinierbar, d.h. enthalten NT1 und mehrere TA-Terminaladapter. Externe Terminaladapter sehen optisch einem Modem ähnlich, weshalb sie oft als ISDN-Modems bezeichnet werden (allerdings gibt es dort keine Modulation oder Demodulation). Sehr häufig wird ein anderer Gerätetyp verwendet - ISDN - Ethernet-Router. Sie fungieren auch als Brücke zwischen dem Kanal und dem lokalen Netzwerk, d.h. Dies ist eine Router-Brücke.

H-Kanäle Die ITU hat Standards für ISDN-H-Kanäle veröffentlicht. Sie umfassen fünf Konfigurationen, beginnend mit BUT (enthält 6 B-Kanäle - 384 Kbit/s Bandbreite, entwickelt um Videokonferenzen zu unterstützen) und endend mit H4-Kanal (enthält 2112 D-Kanäle, 135 Mbit/s Bandbreite, konzentriert sich auf Rundfunk) Video- und Audiodaten) .

ISDN-Dienste Der ISDN-Kanal kann viele zusätzliche Dienste bereitstellen, zum Beispiel: Konferenzgespräche; Weiterleiten eingehender Anrufe an eine andere Telefonnummer; Identifizieren der Nummer des Anrufers; Organisation von Arbeitsgruppen usw.


Frame Relay-Netzwerke

Netzwerke, die X.25-Protokolle verwenden, haben sich als zuverlässig erwiesen, aber nicht schnell genug. In diesem Zusammenhang wurden Modifikationen vorgeschlagen, die auf sehr hohe Übertragungsraten abzielen – dies sind insbesondere Frame Relay- und ATM-Netze.

Begründer der Frame-Relay-Technologie – Frame Relay – war Anfang der 90er Jahre die amerikanische Firma WILTEL, die ein ausgedehntes Netz von Glasfaserstrecken entlang der Bahnstrecke verlegen ließ. Die Frame-Relay-Technologie ermöglichte es im Gegensatz zu X.25, Übertragungsraten bereitzustellen, die mit den Kanälen T1 (1,5 Mbit / s) und TK (45 Mbit / s) kompatibel sind, während es in X.25 normalerweise 64 Kbit / s waren.

Frame-Format Die Essenz dieser Technologie besteht darin, die dritte (Netzwerk-)Schicht X.25 abzulehnen. Sie beschränken sich auf die Verwendung der 2. (Kanal-)Schicht, wo die Übertragung in Frames erfolgt. Nur der Frame-Header wird geändert:

Der Frame-Relay-Frame-Header enthält:

10-Bit-DLCI-Feld - Kennung des Datenübertragungskanals. Dieses Feld wird von Routern verwendet, um den Zielhost zu finden, d. h. es sind Informationen zum Weiterleiten des Rahmens.

Von den verbleibenden sechs Bits des Headers:

3 Bits wirken als Überlastflags;

1 Bit - ermöglicht Ihnen, die Priorität des Frames (als DE-Bit bezeichnet) zu senken;

2 Bit - Reserviert.

Übertragungsgeschwindigkeit

Die Übertragungsgeschwindigkeit wird in Form von drei Parametern mit dem Anbieter abgeglichen:

- CIR - vereinbarte Übertragungsrate;

Bс - der vereinbarte Betrag der Verkehrsausweitung;

Be - die maximale Menge an Verkehrsausweitung.

Das Verkehrsaufkommen Be kann vom Netz nur für einen begrenzten Zeitraum empfangen werden.

Die Übertragung eines VC-Fahrplans ist nur zulässig, wenn die Netzbelastung im Durchschnitt den vereinbarten CIR-Wert nicht überschreitet.

Wird die Last überschritten, kann das Paket entweder vom Router verworfen werden, oder das Bit wird darin auf "1" gesetzt DE(niedrigere Priorität) und selbst in diesem Fall darf ein solches Paket bei Bedarf von jedem nächsten Router entlang der Route zerstört werden.

Kanaltypen

Die Frame Relay-Technologie kann auf zwei Arten von Verbindungen betrieben werden:

PVC - permanente virtuelle Schaltung;

SVC - Geschaltete virtuelle Verbindung.

PVCs werden während der Systemkonfiguration definiert und stellen sicher, dass Pakete immer auf derselben Route zugestellt werden. SVCs werden jedes Mal aufgebaut, wenn eine Übertragung beginnt (im Stadium des Verbindungsaufbaus), wodurch fehlerhafte Abschnitte des Netzwerks vermieden werden.

Schutz vor Fehlern

In einem Frame-Relay-Netzwerk wird der Frame auf Korrektheit überprüft (durch Analyse des FCS-Feldes) und bei Fehlern wird der Frame gelöscht. Eine erneute Übertragung solcher gelöschter Rahmen wird jedoch nicht angefordert. Es wird angenommen, dass ein Transportprotokoll höherer Ebene (verantwortlich für die Ende-zu-Ende-Zustellung) für das Zusammensetzen einer Nachricht und das Anfordern nicht zugestellter Rahmen verantwortlich sein sollte. Daher konzentrieren sich diese Netzwerke auf die Verwendung hochwertiger Glasfaserkanäle, bei denen Fehler relativ selten sind und daher die Wahrscheinlichkeit von Paketwiederholungen gering ist.


Geldautomatennetze

ATM-Netze wurden als noch eine weitere Alternative zu X.25-Netzen entwickelt. Die Übertragungsgeschwindigkeit in diesem Netz liegt ebenfalls im Bereich von 25,5 Mbit/s bis 2,488 Gbit/s. Als Übertragungsmedium können verschiedene Träger eingesetzt werden, von Klasse 3 ungeschirmten Twisted Pair UTР bis hin zu Glasfaserkanälen.

Diese Technologie ist auch bekannt als Schnelle Paketvermittlung - schnelle Paketvermittlung.

Hohe Übertragungsraten werden gewährleistet durch:

1. Feste Framegröße - 53 Byte

2. Das Fehlen von Maßnahmen zur Gewährleistung der Richtigkeit der Übertragung. Diese Aufgabe wird auf höhere Protokollschichten (Transport) übertragen.

Die ATM-Technologie gehört nach dem OSI-Konzept zur zweiten (Data-Link-)Schicht. Frames in ATM heißen Zellen(Zelle). Das Format einer solchen Zelle ist in der linken Abbildung dargestellt.

Der Zellenkopf (5 Byte) enthält:

Virtual Path Identifier – VPI (Virtual Path Identifier);

Virtual Channel Identifier – VCI (Virtual Channel Identifier);

Datentypkennung (3 Bit);

Prioritätsfeld für Zellenverlust (1 Bit);

Das Header-Fehlerkontrollfeld (8 Bits) ist die Mod-2-Summe der Header-Bytes. Protokolle höherer Schichten schneiden ihre Nachrichten in Segmente

48 Bytes und geben Sie sie in das Zellinformationsfeld ein.

Die ATM-Technologie unterstützt 2 Arten von Kanälen (ähnlich wie bei Frame-Netzwerken

PVC - permanente virtuelle Schaltkreise;

SVC - Geschaltete virtuelle Verbindungen.

Auf der ATM-Sicherungsschicht sind 2 Unterebenen zugeordnet (siehe ... Reis oben rechts): die ATM-Schicht selbst und die ATM-Anpassungsschicht.

ATM Adaptation Layer - AAL - implementiert eine der

fünf Übertragungsmodi:

AAL1- gekennzeichnet konstante Baudrate(CBR) und synchroner Verkehr. Fokussiert auf die Übertragung von Sprache und Videobildern.

AAL2- unterstützt auch synchrone Übertragung, aber verwendet Variable Bitrate(VDR). Leider wurde es noch nicht umgesetzt.

AAL3 / AAL4(in einem einzigen Protokoll kombiniert) - fokussiert auf Variable Bitrate(VBR). Eine Synchronisation ist nicht vorgesehen. AAL4 unterscheidet sich dadurch, dass es keinen vorläufigen Verbindungsaufbau erfordert.

AAL5- ähnlich wie AAL3, nur enthält es weniger Serviceinformationen.

Die Protokolle AAL1 und AAL2 übertragen Teile von 48 Informationsbytes (1 Byte ist Overhead). AAL3- bis AAL5-Protokolle übertragen Blöcke (in Segmente geschnitten) mit einer Größe von bis zu 65536 Byte.

Die X.25-Empfehlung beschreibt drei Protokollschichten – physisch, Datenverbindung und Netzwerk. Die physikalische Schicht beschreibt die Signalebenen und die Kommunikationslogik auf der physikalischen Schnittstellenschicht. Eine Vorstellung von dieser Ebene haben diejenigen Leser, die beispielsweise ein Modem an eine serielle Schnittstelle eines Personal Computers (RS-232 / V.24-Schnittstelle) anschließen mussten. Die zweite Ebene (LAP / LAPB) ist mit verschiedenen Modifikationen inzwischen auch in Geräten mit Massennachfrage recht weit verbreitet: in Geräten von Modems zum Beispiel in den MNP-Gruppenprotokollen, die für den Schutz vor Fehlern bei der Übertragung von Informationen über einen Kommunikationskanal sowie in lokalen Netzwerken auf LLC-Ebene. Die zweite Protokollschicht ist für eine effiziente und zuverlässige Datenübertragung bei einer Punkt-zu-Punkt-Verbindung verantwortlich, d.h. zwischen benachbarten Knoten des X.25-Netzwerks. Dieses Protokoll bietet Schutz vor Fehlern während der Übertragung zwischen benachbarten Knoten und die Kontrolle des Datenflusses (wenn die empfangende Seite nicht bereit ist, Daten zu empfangen, benachrichtigt es die sendende Seite, und diese unterbricht die Übertragung). Darüber hinaus enthält dieses Protokoll Parameter, deren Werte Sie ändern können, je nach Länge des Kanals zwischen zwei Punkten (Verzögerungszeit im Kanal) und der Qualität des Kanals (die Wahrscheinlichkeit) den optimalen Übertragungsratenmodus erhalten Informationsverzerrung während der Übertragung). Um alle oben genannten Funktionen zu implementieren, wird das Konzept des "Rahmens" in die Protokolle der zweiten Ebene eingeführt. Ein Frame ist eine Information (Bits), die auf eine bestimmte Weise organisiert ist. Das Flag startet den Frame, d.h. eine Folge von Bits eines streng definierten Typs, die ein Trennzeichen zwischen Frames ist. Dann kommt das Adressfeld, das bei einer Punkt-zu-Punkt-Verbindung auf die Adresse "A" oder die Adresse "B" reduziert wird. Als nächstes kommt das Feld des Rahmentyps, der angibt, ob der Rahmen Informationen enthält oder ein reiner Dienst ist, d.h. zum Beispiel verlangsamt es den Informationsfluss oder benachrichtigt die Sendeseite über den Empfang/Nicht-Empfang des vorherigen Frames. Der Rahmen enthält auch ein Rahmennummernfeld. Die Frames werden zyklisch nummeriert. Das bedeutet, dass bei Erreichen eines bestimmten Schwellenwertes die Nummerierung wieder bei Null beginnt. Schließlich endet der Rahmen mit einer Prüfsequenz. Beim Senden eines Frames wird die Sequenz nach bestimmten Regeln gezählt. Gemäß dieser Sequenz wird beim Empfang überprüft, ob während der Übertragung des Rahmens eine Informationsverzerrung aufgetreten ist. Beim Anpassen der Protokollparameter an die physikalischen Eigenschaften der Leitung können Sie die Rahmenlänge ändern. Je kürzer der Frame, desto weniger wird er während der Übertragung verzerrt. Wenn die Leitung jedoch von guter Qualität ist, ist es besser, mit längeren Datenrahmen zu arbeiten, da der Prozentsatz der über den Kanal übertragenen redundanten Informationen (Flag, Rahmendienstfelder) wird reduziert. Darüber hinaus können Sie die Anzahl der Frames ändern, die die sendende Seite sendet, ohne auf eine Bestätigung der empfangenden Seite zu warten.

Dieser Parameter ist mit dem sogenannten verbunden. "Nummerierungsmodul", d.h. der Wert der Schwelle, bei deren Erreichen die Nummerierung wieder bei Null beginnt. Dieses Feld kann gleich 8 sein (für diejenigen Kanäle, bei denen die Verzögerung bei der Übertragung von Informationen nicht zu groß ist) oder 128 (für Satellitenkanäle, zum Beispiel, wenn die Verzögerung bei der Übertragung von Informationen über den Kanal groß ist). Und schließlich ist die dritte Protokollschicht "Netzwerk". Diese Ebene ist im Zusammenhang mit der Diskussion von X.25-Netzwerken am interessantesten, da er in erster Linie die Spezifika dieser Netzwerke bestimmt.

Funktionell ist dieses Protokoll in erster Linie für das Routing im X.25-Datennetz verantwortlich, um Informationen vom "Entry Point" in das Netzwerk zum "Exit Point" zu bringen. Auf seiner Ebene strukturiert das Protokoll der dritten Schicht auch Informationen, d.h. zerlegt es in "Portionen". Auf der dritten Ebene wird eine Information als "Paket" bezeichnet. Die Paketstruktur ist der Rahmenstruktur sehr ähnlich. Das Paket hat sein eigenes Nummerierungsmodul, seine eigenen Adressfelder, seinen eigenen Pakettyp, seine eigene Prüfsequenz. Während der Übertragung wird das Paket in das Datenfeld von Informationsrahmen (Rahmen der zweiten Ebene) gelegt. Funktionell unterscheiden sich die Paketfelder von den entsprechenden Rahmenfeldern. Dies betrifft zunächst das Adressfeld, das im Paket aus 15 Ziffern besteht. Dieses Paketfeld sollte die Identifizierung von Teilnehmern innerhalb aller Paketvermittlungsnetze auf der ganzen Welt bereitstellen.

INTERNET

Das Internet umfasst alle Netzwerke, die über IP interagieren, um ein nahtloses Netzwerk für ihre Benutzer zu bilden. Derzeit umfasst das Internet Zehntausende von Netzwerken und ihre Zahl wächst ständig. 1980 gab es 200 Computer im Internet. Die Zahl der Computer, die mit dem Netzwerk verbunden sind, wächst weiterhin um etwa 15 % pro Monat. Der Umfang des Internets hat seit der Anbindung kommerzieller Netze erheblich zugenommen. Dies waren Netzwerke wie America Online, CompuServe, Prodigy, Delphi, GEuie, BIX usw.

Internet-Governance Die Richtung des Internets wird von der "Internet Society" (ISOC) vorgegeben. Es handelt sich um eine ehrenamtlich tätige Organisation; Ihr Ziel ist es, den weltweiten Informationsaustausch über das Internet zu erleichtern. Sie ernennt einen Ältestenrat, der für die technische Leitung und Ausrichtung des Internets zuständig ist.

Der IAB Council of Elders - (Internet Architecture Board) trifft sich regelmäßig, um Standards zu genehmigen und Ressourcen zuzuweisen. Standards sollen die Vernetzung zwischen Computern unterschiedlicher Plattformen (Sun, Macintosh, IBM etc.) erleichtern. Jeder Computer im Netzwerk hat seine eigene eindeutige 32-Bit-Adresse. Die Regeln für die Adressvergabe werden vom IAB festgelegt.

Es gibt eine weitere öffentliche Einrichtung - die IETF Engineering Commission (Internet Engineering Task Force). Er trifft sich regelmäßig, um technische und organisatorische Fragen zu besprechen und bildet bei Bedarf Arbeitsgruppen.

Die Verwendung von P- und V-Operationen zur Organisation der Interaktionen von Prozessen im System kann durchgeführt werden, solange es keinen besseren Kommunikationsmechanismus gibt. Ein Verbesserungsvorschlag

Reis. 8.7. P / V-Prozesssystem für zwei Knoten des Berechnungsgraphen in Abb. 8.2.

Reis. 8.8. Hinzufügen von P / V-Systemen zur Hierarchie der Modelle.

Dieser Mechanismus ist der Vorschlag, Nachrichten zu verwenden. Ein Messaging-System ist eine Sammlung von Prozessen, die mithilfe von Nachrichten kommunizieren. Bei Nachrichten sind zwei Operationen möglich: Senden und Empfangen. Das Senden einer Nachricht ist wie eine V-Operation, und das Empfangen einer Nachricht ist wie eine A-Operation. Wenn während des Empfangsvorgangs keine Nachrichten vorhanden sind, wartet der Empfänger, bis die Nachricht gesendet wurde.

Das Modellierungsschema von Riddle basiert auf diesem Mechanismus. Dieses Modell scheint am besten geeignet zu sein, um Protokolle in Computernetzwerken zu modellieren. Riddle betrachtet eine (endliche) Menge von Prozessen, die durch Nachrichten kommunizieren. Nachrichten werden von speziellen Prozessen, sogenannten Kanalprozessen (Mailboxen), gesendet und angefordert. Kanalprozesse stellen im Wesentlichen einen Satz von Nachrichten bereit, die gesendet, aber noch nicht empfangen wurden, oder einen Satz von Nachrichtenanforderungen von Empfängern, die ausgegeben, aber noch nicht erfüllt wurden. Andere Prozesse des Systems werden Softwareprozesse genannt und sind in der Sprache der Softwareprozessmodellierung (LMPL) beschrieben.

Ein Beispiel für ein Dreiprozesssystem ist in Abb. 8.9. Wie dem Beispiel zu entnehmen ist, handelt es sich bei der Beschreibung der Abläufe im YMPP im Wesentlichen um ein Diagramm. Von Interesse ist nur die Aktivität der Nachrichtenweitergabe im System. Nachrichten sind abstrakte Elemente, deren einziges Merkmal der Typ ist. Die Anzahl der Nachrichtentypen im System kann nur endlich sein. Nachrichten werden in jedem der Prozesse vom Nachrichtenpuffer gesendet oder in den Nachrichtenpuffer empfangen. Es gibt nur einen Puffer pro Prozess. Die Vorschläge des YMPP sind: Legen Sie eine Nachricht des Typs in den Nachrichtenpuffer. Nachricht an den Nachrichtenpuffer des Kanalprozesses senden Nachricht vom Kanalprozess anfordern Warten (falls erforderlich), bis eine Nachricht empfangen wird. Die Nachricht wird in den Nachrichtenpuffer gestellt. Überprüfen Sie den Nachrichtentyp im Nachrichtenpuffer und springen Sie zu einem Satz, wenn die Nachricht einen anderen Typ hat als: Interne datenabhängige Validierung simulieren. Fahren Sie entweder mit der Verarbeitung fort, indem Sie den nächsten Satz ausführen, oder navigieren Sie zu dem Angebot mit der Bezeichnung Transfer Control to Offer End Process.

Das System mit YMPP simuliert viele parallele Prozesse. Jeder Prozess beginnt am Anfang seines Programms und führt sein Programm aus, bis er auf einen Satz stößt. Riddle zeigt, wie man einen Message-Passing-Ausdruck konstruiert, der die möglichen Nachrichtenflüsse im System darstellt, und verwendet diesen Ausdruck, um die Struktur des Systems zu untersuchen und zu organisieren korrekter Betrieb. Dieser Message-Passing-Ausdruck wird für die gleichen Zwecke wie die Petri-Netz-Sprache verwendet. Daher zeigen wir, wie eine Beschreibung eines Prozesssystems auf dem LMPP in ein Petri-Netz umgewandelt werden kann, so dass seine Sprache mit dem Nachrichtenübertragungsausdruck aus Riddles Analyse übereinstimmt. Diese Transformation ignoriert die Ausführung einzelner Sätze der Beschreibung im YMPP, obwohl sie mit kleinen Modifikationen auch in der Petrinetzsprache dargestellt werden könnten.

Um einen Prozess mit einem Petri-Netz zu simulieren, verwenden wir einen Token pro Prozess als Programmzähler. Auch das Vorhandensein einer Nachricht im Kanalprozess wird als Zähler dargestellt. Da Nachrichten nach Typ identifiziert werden, ist es notwendig, jeden Nachrichtentyp im Kanalprozess mit einem separaten Element zu modellieren. Eine sehr wichtige Eigenschaft von Systemen mit LMP ist, dass die Anzahl der Nachrichten endlich ist. Jeder Softwareprozess ist auch endlich. Nur die Nachrichtenwarteschlange benötigt eine potenziell unbegrenzte Menge an Speicher. Daher sind die Fähigkeit, Kanalprozesse zu simulieren und die Sende- und Empfangssätze korrekt darzustellen, die wichtigsten Aspekte bei der Transformation einer Beschreibung in LMPP in ein Petri-Netz. Modellieren

Kanalprozessen mit Positionen von Positionen (eine für jeden Nachrichtentyp) können wir die send-Klausel durch einen Übergang darstellen, der ein Token an einer Position platziert, die den entsprechenden Kanalprozess und den entsprechenden Nachrichtentyp repräsentiert. Die Empfangsklausel entfernt einfach das Token von jeder Position im Kanalprozess. Die spezifische Position, die das Token liefert, bestimmt die Art der empfangenen Nachricht. Diese Informationen können in jedem nachfolgenden Satz verwendet werden

Das einzige Zeichen in einem Message-Passing-Ausdruck ist der Nachrichtentyp für die Nachrichten, die an den Kanalprozess gesendet oder von ihm empfangen werden. Da jede Transition in einem Petrinetz zum Erscheinen eines Symbols in der Sprache des Petrinetzes für dieses Petrinetz führt, können in einem System mit LMPP nur die Sende- und Empfangsklauseln modelliert werden. Somit gibt es zwei Arten von Positionen in einem Petrinetz. Eine Art von markierten Positionen dient als Zähler für die Anzahl von Nachrichten des Typs im Kanalprozess.Eine andere Art von Positionen stellt die Sende- und Empfangsklauseln des LMPP-Programmsdar. Diese Sätze seien eindeutig gekennzeichnet: Wir markieren die den Satz repräsentierende Position mit einer Nachricht des Typs im Nachrichtenpuffer mit dem Token-Symbol an der zum Angebot gehörenden Position bedeutet, dass der Satz bereits ausgeführt wurde. Reis. 8.10 veranschaulicht, wie Sätze mit einem Petrinetz modelliert werden sollten. In Abb. 8.10 Position stellt eine Position dar, die mit einem Angebot verbunden ist, das dem Angebot vorausgeht

Es bleibt nun zu zeigen, dass es möglich ist, einen Satz vor anderen Sätzen im YMPP-Programm zu definieren. Beachten Sie, dass jeder Satz als ein Paar bestehend aus einem Nachrichtentyp und einer Satznummer betrachtet werden kann, da der gleiche Satz mit unterschiedlichen Nachrichtentypen im Nachrichtenpuffer von einem Petri-Netz auf unterschiedliche Weise modelliert wird. Die naheliegendste Möglichkeit, die Vorgänger eines Satzes zu bestimmen, besteht darin, zu Beginn jedes Programms auf dem LMPP einen speziellen Startsatz (der zur Startposition wird) laufen zu lassen und entsprechend der Programmbeschreibung alle möglichen nachfolgenden Sende- und Empfangssätze zu generieren mit dem entsprechenden Inhalt des Nachrichtenpuffers. Dieser Vorgang wird für alle vorkommenden Sätze wiederholt, bis alle Sende- und Empfangsklauseln erzeugt und ihre Nachfolger identifiziert wurden. Da die Anzahl der Sätze in der Beschreibung auf dem LMPP und die Anzahl der Nachrichtentypen endlich ist, werden nur endlich viele Satzpaare erzeugt! / Typ, Nachricht. Dieses Verfahren ähnelt den charakteristischen Gleichungen, die von Riddle verwendet werden, um einen Nachrichtenausdruck zu erstellen. In Abb. 8.11 listet Vorschläge auf

Reis. 8.10. (siehe Scan) Transformation von Sende- und Empfangsklauseln in Petrinetz-Übergänge. oben ist das Modell der sk:send-Klausel mit dem Nachrichtentyp im Nachrichtenpuffer. Kanalprozess unten - Modell des sk: Receive-Klausel aus dem Kanalprozess Mögliche Nachrichtentypen in

und ihre möglichen Nachfolger für das System mit NLMP in Abb. 8.9.

Sobald die Nachfolger des Satzes identifiziert sind, können wir unter Verwendung dieser Informationen mögliche Vorgänger des Satzes identifizieren und daher ein Petrinetz äquivalent zum LMPP-System unter Verwendung von Übergängen ähnlich den in Abb. 8.10. Die spezielle Startposition ist der Vorgänger des ersten Satzes jedes Prozesses im System. In Abb. 8.12 das System mit NMPP, dargestellt in Abb. 8,9, umgerechnet in ein äquivalentes Petri-Netz.

Eine kurze Beschreibung der Transformation von Messaging-Systemen in einem Petri-Netz zeigt, dass dieses Modell durch die Macht der Modellierung in einem Petri-Netz enthalten ist. Es zeigt auch, dass die als Klasse von Sprachen betrachtete Menge von Messaging-Ausdrücken eine Untermenge der Klasse der Petrinetzsprachen ist.

Da P/V-Systeme durch Messaging-Systeme mit Nachrichten nur eines Typs modelliert werden können, sind P/V-Systeme

Reis. 8.11. (siehe Scan) Vorschläge und Follower für das System mit NMPP, gezeigt in Abb. 8.9.

sind in Nachrichtensystemen enthalten. Es ist einfach, ein Messaging-System aufzubauen, um das Problem der Zigarettenraucher zu lösen, daher ist die Einbeziehung von P / V-Systemen in Messaging-Systeme eine eigene. Andererseits sind Systeme mit Nachrichten nicht in der Lage, Eingangsnachrichten von mehreren Quellen gleichzeitig wahrzunehmen und sind daher nicht mit Petri-Netzen gleichzusetzen.

Beim Versuch, einen Übergang mit mehreren Eingängen zu simulieren, kann eine der folgenden beiden Situationen auftreten:

1. Der Prozess versucht, Token (Nachrichten) von allen seinen Eingängen zu empfangen, ist jedoch ungültig und wird daher blockiert, während die Token verzögert werden, die benötigt werden, damit andere Übergänge weiterarbeiten können. Dies führt zu Sackgassen im System mit Nachrichten, die nicht Sackgassen im Petri-Netz entsprechen, was die dritte Einschränkung verletzt.

2. Der Prozess vermeidet unnötige Sackgassen, indem er feststellt, dass die verbleibenden erforderlichen Token fehlen und zurückgegeben werden

(klicken, um den Scan anzuzeigen)

Token in Position (Kanalprozesse), von denen sie empfangen wurden. Solche Aktionen können beliebig oft durchgeführt werden, was bedeutet, dass es keine Begrenzung der Länge einer Aktionsfolge in einem System mit Nachrichten gibt, die einer begrenzten Folge von Startübergängen in einem Petri-Netz entsprechen. Somit verletzt dies unsere zweite Einschränkung.

Reis. 8.13. Hinzufügen von Systemen mit Nachrichten zur Hierarchie der Modelle.

Riddle präsentierte eine Transformation, die zu Fall 1 passt und zu unnötigen Sackgassen führt. Jedenfalls sehen wir, dass Nachrichtensysteme (unter den von uns formulierten Randbedingungen) keine beliebigen Petrinetze simulieren können. Als Ergebnis erhalten wir daher die in Abb. 8.13.


9) Routing: statisch und dynamisch am Beispiel von RIP, OSPF und EIGRP.
10) Übersetzung der Netzwerkadressen: NAT und PAT.
11) Erste-Hop-Reservierungsprotokolle: FHRP.
12) Computernetzwerksicherheit und virtuelle private Netzwerke: VPN.
13) Verwendete globale Netzwerke und Protokolle: PPP, HDLC, Frame Relay.
14) Einführung in IPv6, Konfiguration und Routing.
15) Netzwerkmanagement und Netzwerküberwachung.

PS Vielleicht wird die Liste im Laufe der Zeit ergänzt.


Wie Sie sich erinnern, habe ich bereits gesagt, dass es in Netzwerken wichtig ist, alle Regeln für den ordnungsgemäßen Betrieb strikt einzuhalten. Nämlich der Prozess der Verkapselung und Entkapselung. Als wir im vorherigen Artikel über Protokolle der oberen Schicht sprachen, erwähnte ich daher beiläufig einige Protokolle der unteren Schicht, da sie ständig herauskrochen und an sich selbst erinnerten. Lassen Sie mich erklären, warum. Schauen Sie sich jetzt das Bild oben an. So funktioniert E-Mail. Schauen Sie sich die beiden Glatzköpfe oben an, die den Brief geschrieben haben und vor Glück glühen. Aber der Brief hat keinen Sinn, wenn der Adressat ihn nicht sieht. Dazu verwenden sie den Postdienst. Ihr Brief wird von einem Postmitarbeiter entgegengenommen und in einen Umschlag gesteckt. Sie wird den Umschlag so unterschreiben, dass klar ist, von wem und an wen. Dann holt der Kurier diesen Brief ab und bringt ihn zum Sortierzentrum. Unten ein Bauer mit Mütze und Schürze, der mit Buchstaben jongliert. Er weiß, wo er den Brief hinlegen muss, damit er den Adressaten erreicht. Und ganz unten ist ein Zug, der ein Verkehrsknotenpunkt ist. Beachten Sie, dass hier die Rolle aller für den erfolgreichen Versand und die Zustellung des Briefes wichtig ist.

In Netzwerken ist alles gleich. Sie haben sich entschieden, auf die Website zu gehen und die Nachrichten zu lesen. Geben Sie die Website-Adresse in die Browserzeile ein. Dann sollte Ihr Computer nach diesen Seiten fragen. Und dann werden niedrigere Protokolle zur Rettung kommen, die ein Transportknotenpunkt sind. Hier kann jede Ebene mit den oben beschriebenen Persönlichkeiten im Bild verglichen werden.

Ich werde all diese Spielerei auf einen gemeinsamen Nenner bringen und ein Beispiel teilen, das ich einmal für mich selbst abgeleitet habe. Sie haben ein Netzwerk-Endpunktgerät. Egal ob Computer, Laptop, Tablet, Smartphone oder sonstiges. Jedes dieser Geräte arbeitet über den TCP/IP-Stack. Das bedeutet, dass es seine Regeln einhält.

1) Anwendungsebene. Hier arbeitet die Netzwerkanwendung selbst. Das heißt, ein Webbrowser, der beispielsweise von einem Computer gestartet wird.

2) Transportschicht. Eine Anwendung oder ein Dienst muss einen Port haben, an dem sie lauscht und über den sie kontaktiert werden kann.

3) Netzwerkschicht. Die IP-Adresse ist hier vorhanden. Sie wird auch als logische Adresse eines Geräts im Netzwerk bezeichnet. Mit dessen Hilfe können Sie den Computer kontaktieren, auf dem genau dieser Browser ausgeführt wird, was bedeutet, dass Sie die Anwendung selbst erreichen können. Mit dieser Adresse ist er Mitglied des Netzwerks und kann mit anderen Teilnehmern kommunizieren

4) Verbindungsschicht. Dies ist die Netzwerkkarte selbst oder die Antenne. Das heißt, ein Sender und ein Empfänger. Sie hat eine physikalische Adresse, um diese Netzwerkkarte zu identifizieren. Auch Kabel, Stecker gehören hierher. Es ist die Umgebung, die den Computer mit anderen Teilnehmern verbindet.

Beginnen wir auf der untersten Ebene. Dies ist die Datenverbindung und die physikalische Schicht, wenn sie vom Standpunkt des OSI-Modells aus betrachtet wird, und die Zugriffsschicht, wenn sie von der Spitze des TCP/IP-Protokollstapels aus betrachtet wird. Wir verwenden TCP / IP, daher werde ich aus ihrer Sicht sprechen. Die Zugriffsschicht, wie Sie verstanden haben, kombiniert die physische und die Sicherungsschicht.

Physikalische Schicht. Oder wie sie es gerne "elektrische Ebene" nennen. Gibt die Parameter des Signals sowie die Art und Form des Signals an. Wenn zum Beispiel Ethernet verwendet wird (das Daten über eine Leitung überträgt), was ist dann die Modulation, Spannung, Strom. Wenn es sich um Wi-Fi handelt, welche Funkwellen, Frequenz und Amplitude verwendet werden sollen. Diese Ebene umfasst Netzwerkkarten, Wi-Fi-Antennen, Anschlüsse. Auf dieser Ebene wird das Konzept der Bits eingeführt. Es ist eine Maßeinheit für übertragene Informationen.

Verbindungsschicht. Diese Ebene wird verwendet, um nicht nur Bits, sondern sinnvolle Folgen dieser Bits zu übermitteln. Wird für die Datenübertragung in einer Einkanalumgebung verwendet. Was das bedeutet, werde ich etwas später beschreiben. Auf dieser Ebene funktionieren MAC-Adressen, auch physikalische Adressen genannt.

Der Begriff "physikalische Adressen" wurde aus einem bestimmten Grund eingeführt. Jede Netzwerkkarte oder Antenne hat eine eingebaute Adresse, die vom Hersteller vergeben wird. Im vorigen Artikel habe ich den Begriff "Protokolle" erwähnt. Nur dort waren es Top-Level-Protokolle, genauer gesagt das angewandte. Auf der Datenverbindungsebene funktionieren ihre eigenen Protokolle und ihre Anzahl ist nicht gering. Die beliebtesten sind Ethernet (verwendet in lokalen Netzwerken), PPP und HDLC (verwendet in Weitverkehrsnetzwerken). Dies ist sicherlich nicht alles, aber Cisco berücksichtigt nur sie in seiner CCNA-Zertifizierung.

Es ist schwer, das alles in Form eines soliden trockenen Textes zu verstehen, deshalb erkläre ich es im Bild.

Vergessen Sie vorerst IP-Adressen, das OSI-Modell und den TCP/IP-Protokollstack. Sie haben 4 Computer und einen Switch. Achten Sie nicht auf den Schalter, da es sich um eine gewöhnliche Box zum Anschließen von Computern handelt. Jeder Computer hat seine eigene MAC-Adresse, die ihn im Netzwerk identifiziert. Es muss einzigartig sein. Obwohl ich sie 3-stellig dargestellt habe, ist dies bei weitem nicht der Fall. Dieses Bild dient nur dem logischen Verständnis, aber ich werde unten schreiben, wie es im wirklichen Leben funktioniert.

So. Wenn einer der Computer etwas an einen anderen Computer senden möchte, muss er nur die MAC-Adresse des Computers kennen, an den er sendet. Wenn der obere linke Computer mit der MAC-Adresse 111 etwas an den unteren rechten Computer senden möchte, dann wird er es problemlos senden, wenn er weiß, dass der Empfänger die MAC-Adresse 444 hat.

Diese 4 Computer bilden ein einfaches lokales Netzwerk und eine Umgebung mit einem Kanal. Daher der Name des Levels. Für den korrekten Betrieb von Knoten in TCP/IP-Netzwerken reicht die Adressierung auf Link-Ebene jedoch nicht aus. Wichtig ist auch die Adressierung auf Netzwerkebene, die jedem als IP-Adressierung bekannt ist.

Erinnern wir uns nun an IP-Adressen. Und weisen Sie sie unseren Computern zu.


Ich habe die Adressen symbolisch vergeben, um die Funktionsweise grundsätzlich zu verstehen. Diese beiden Adressierungen (Kanal und Netzwerk) arbeiten eng zusammen und können nicht getrennt arbeiten. Lassen Sie mich erklären, warum. In unserem täglichen Leben arbeiten wir nur mit IP-Adressen oder Namen, worüber im vorherigen Artikel ein ganzes Kapitel gesprochen wurde. Wir arbeiten eigentlich nicht mit MAC-Adressen. Die Computer selbst arbeiten mit ihnen. Jetzt simuliere ich die Situation. Ich sitze am oberen linken Rechner mit IP: 1.1.1.1 und MAC: 111. Ich wollte den unteren rechten Rechner kontaktieren und prüfen ob er lebt oder nicht. Ich kann ihn kontaktieren, wenn ich seine IP-Adresse kenne. Die MAC-Adresse interessiert mich nicht. Ich weiß, dass seine IP-Adresse 1.1.1.4 ist. Und ich entscheide mich, das Ping-Dienstprogramm zu verwenden (Dienstprogramm zum Überprüfen der Verfügbarkeit eines Knotens).

Nun zum wichtigen. Der Computer erkennt, dass er die MAC-Adresse des Computers, der auf Verfügbarkeit überprüft werden muss, nicht kennt. Um die MAC-Adresse anhand der IP-Adresse herauszufinden, haben sie sich das ARP-Protokoll ausgedacht. Ich werde später ausführlich darüber schreiben. Jetzt möchte ich, dass Sie die Abhängigkeiten zwischen MAC-Adresse und IP-Adresse verstehen. Also fängt er an, das gesamte Netzwerk anzuschreien: "Wer ist 1.1.1.4." Dieser Ruf wird von allen Netzwerkteilnehmern gehört, und wenn es einen Knoten gibt, der eine bestimmte IP-Adresse hat, wird er antworten. Ich habe einen solchen Computer und auf diesen Schrei wird er antworten: „1.1.1.4 bin ich. Mein MAC ist 444". Mein Computer empfängt diese Nachricht und kann fortfahren, was ich gesagt habe.

Als Nächstes müssen Sie lernen, wie Sie ein Subnetz von einem anderen unterscheiden können. Und wie der Computer versteht, befindet er sich im selben Subnetz mit einem anderen Knoten oder in anderen. Dazu kommt die Subnetzmaske zur Rettung. Es gibt viele Masken und zunächst wirkt es beängstigend, aber ich versichere Ihnen, dass es nur auf den ersten Blick so aussieht. Ihr wird ein ganzer Artikel gewidmet, und dort erfahren Sie alle ihre Geheimnisse. In dieser Phase zeige ich Ihnen, wie es funktioniert.

Wenn Sie jemals in die Einstellungen von Netzwerkadaptern gelangt sind oder eine statische Adresse eingetragen haben, die Ihnen der Provider mitgeteilt hat, dann haben Sie das Feld "Subnetzmaske" gesehen. Es wird im gleichen Format wie die IP-Adresse, das Standard-Gateway und das DNS geschrieben. Dies sind vier Oktette, die durch Punkte getrennt sind. Wenn Sie dies noch nie gesehen haben, können Sie eine Eingabeaufforderung öffnen und ipconfig eingeben. Sie werden etwas Ähnliches sehen.


Dies ist ein Screenshot von der Befehlszeile meines Laptops. Ich sitze an einem Home-Hotspot, der eine Maske von 255.255.255.0 hat. Dies ist wahrscheinlich die am einfachsten zu erklärende Maske, und höchstwahrscheinlich haben Sie sie genau gleich. Was ist der Sinn. Die ersten 3 Oktetts (sie sind fest) zeigen die Netzwerkadresse und das 4. Oktett (es ist dynamisch) zeigt die Hostadresse. Mit anderen Worten, diese Maske zeigt an, dass Sie die ersten 3 Oktette vollständig überprüfen müssen und das vierte von 0 - 255 frei sein kann. Im Allgemeinen ist dies eine grobe Formulierung. Denn mit einer solchen Maske sind sie von 1 bis 254 frei, wobei 0 unter der Netzwerkadresse und 255 unter der Broadcast-Adresse steht. Aber in jedem Fall ist dies die Grenze einer Umgebung mit einem Kanal. Das heißt, wenn ein Knoten eine Nachricht an einen anderen Knoten senden muss, nimmt er seine Adresse und legt ihm eine Maske auf, und wenn die Netzwerkadresse (fester Teil) mit seiner Adresse konvergiert, befinden sie sich in derselben Kanalumgebung. Ich erkläre es am Beispiel des gleichen Bildes.


Ich sitze am oberen linken Computer und möchte es an den unteren rechten senden. Ich kenne sowohl die IP-Adresse als auch die MAC-Adresse. Ich muss verstehen, ob wir uns in derselben Kanalumgebung befinden oder nicht. Seine Adresse ist 1.1.1.4 und die Maske ist 255.255.255.0. Die Maske sagt mir, dass 3 Oktette fest sind und sich nicht ändern sollten, und das vierte kann alles im Bereich von 1 bis 254 sein. Ich lege eine Maske auf seine Adresse und auf meine Adresse und sehe die Übereinstimmungen und Unterschiede.


Der für das Netzwerk zuständige Bereich ist rot markiert. Wie Sie sehen, ist es bei 2 Hosts gleich. Dies bedeutet, dass sie sich im selben Subnetz befinden.

Ich werde das Netz modernisieren und euch ein bisschen anders zeigen.


Ein rundes Gerät wurde hinzugefügt. Es heißt Router oder Router. Das Wort ist jedem bekannt. Seine Hauptaufgabe besteht darin, Netzwerke zu verbinden und die beste Route zu wählen, auf die später genauer eingegangen wird. Und rechts ein Schalter hinzugefügt, mit dem 2 Computer verbunden sind. Die Maske für alle Geräte hat sich nicht geändert (255.255.255.0).

Schauen Sie sich die Adressen aller Geräte genau an. Möglicherweise stellen Sie fest, dass sich das 3. Oktett für die neuen Knoten und die alten Knoten unterscheidet. Lassen Sie uns damit umgehen. Ich sitze auch an einem Computer mit MAC: 111 und IP: 1.1.1.1. Ich möchte Informationen an einen der neuen Knoten senden. Nehmen wir an, dies ist der Computer oben rechts mit MAC: 555 und IP: 1.1.2.1. Ich setze eine Maske auf und schaue.


Und hier ist ein anderes Bild. Die 3. Oktette sind unterschiedlich, was bedeutet, dass sich die Knoten in verschiedenen Netzwerken (richtiger gesagt in Subnetzen) befinden. Um solche Situationen zu beheben, gibt es in den Einstellungen jedes Betriebssystems ein Standard-Gateway. Es wird auch als "Gateway of Last Resort" bezeichnet. Es wird nur verwendet, wenn Sie Informationen an einen Knoten senden müssen, der sich in einer anderen Kanalumgebung befindet. Für meinen Computer lautet die Gateway-Adresse 1.1.1.254. Und für den Computer, an den ich Daten schicke 1.1.2.254. Die Logik dahinter ist einfach. Wenn ein Knoten, der sich in einer Kanalumgebung befindet, Informationen direkt empfangen hat, führt der Pfad für einen Knoten, der sich in einer anderen Kanalumgebung befindet, über einen Router.

Mein Computer weiß, dass die Gateway-Adresse 1.1.1.254 lautet. Er wird dem gesamten Netzwerk zurufen: "Answer 1.1.1.254." Diese Nachricht wird von allen Teilnehmern in der Kanalumgebung empfangen, aber nur derjenige, der hinter dieser Adresse sitzt, wird antworten. Das heißt, ein Router. Er wird eine Antwort senden, und erst danach sendet mein Computer die Daten an die Adresse 1.1.2.254. Und pass auf. Auf der Sicherungsschicht werden Daten an MAC: 777 und auf Netzwerkebene an IP gesendet: 1.1.2.1. Dies bedeutet, dass die MAC-Adresse nur in ihrer Kanalumgebung übertragen wird und sich die Netzwerkadresse nicht auf ihrem gesamten Weg ändert. Wenn der Router die Informationen empfängt, versteht er, dass sie auf Link-Ebene für ihn bestimmt waren, aber wenn er die IP-Adresse sieht, erkennt er, dass es sich um einen Zwischenlink handelt, der an eine andere Kanalumgebung übertragen werden muss. Sein zweiter Port sucht nach dem richtigen Subnetz. Es bedeutet, dass alles richtig zu ihm gekommen ist. Aber er kennt die Ziel-MAC-Adresse nicht. Er beginnt in gleicher Weise dem gesamten Netzwerk zuzurufen: "Wer ist 1.1.2.1?" Und ein Computer mit einer MAC-Adresse von 555 antwortet darauf. Ich denke, die Logik der Arbeit ist klar.

In den beiden vorherigen Artikeln und im aktuellen wurde der Begriff viele Male erwähnt "MAC-Adresse"... Schauen wir uns an, was es ist.

Wie ich bereits sagte, ist dies eine eindeutige Kennung für ein Netzwerkgerät. Es ist einzigartig und sollte nirgendwo wiederholt werden. Es besteht aus 48 Bit, von denen die ersten 24 Bit eine eindeutige Kennung für die Organisation sind, die vom IEEE (Institute of Electrical and Electronics Engineers)-Komitee vergeben wird. Und die zweiten 24 Bit werden vom Hardwarehersteller vergeben. Es sieht aus wie das.


Sie schreiben es auf unterschiedliche Weise auf. Zum Beispiel:

1) 00-50-56-C0-00-08
2) 00: 50: 56: C0: 00: 08
3) 0050.56С0.0008

Wie Sie sehen, kann dieselbe Adresse auf unterschiedliche Weise geschrieben werden. Trotzdem wird es in der Regel nicht geteilt, sondern zusammen aufgenommen. Wichtig zu wissen ist, dass die MAC-Adresse immer aus 48 Bit besteht und aus 12 Buchstaben und/oder Zahlen besteht. Sie können es auf verschiedene Arten anzeigen. Öffnen Sie beispielsweise unter Windows eine Eingabeaufforderung und geben Sie ipconfig / all ein. Viele Hersteller schreiben es noch auf die Verpackung oder auf die Rückseite des Geräts.


So können Sie sich Ihren WLAN-Hotspot ansehen und eine ähnliche Aufzeichnung sehen. Ganz am Anfang habe ich die MAC-Adressen in 3-stelligen Zahlen angezeigt, was nicht stimmt. In diesem Zusammenhang habe ich sie nur der Einfachheit halber verwendet, um Sie nicht mit langen unverständlichen Notizen zu verwirren. Unten, wenn es um die Praxis geht, werden Sie sie so sehen, wie sie wirklich sind.

Nachdem wir die Adresse auf der Verbindungsschicht geparst haben, ist es an der Zeit, das Protokoll zu zerlegen, das auf dieser Schicht funktioniert. Das derzeit am häufigsten in lokalen Netzwerken verwendete Protokoll ist Ethernet... Das IEEE hat es mit dem 802.3-Standard beschrieben. Alle Versionen, die mit 802.3 beginnen, beziehen sich also darauf. 802.3z ist beispielsweise GigabitEthernet über Glasfaser; 1 Gbit/s und 802.3af ist Power over Ethernet (PoE).

Die Organisation habe ich übrigens nicht erwähnt IEEE (Institut für Elektro- und Elektronikingenieure)... Diese Organisation entwickelt Standards für alles, was mit Elektronik und Elektrotechnik zu tun hat. Auf ihrer Website finden Sie viele Dokumentationen zu bestehenden Technologien. Das geben sie auf Anfrage "Ethernet" aus


Schauen wir uns an, woraus es besteht. Da das Protokoll selbst alt ist (erfunden 1973), wurde es viele Male modernisiert und sein Format geändert. Sie finden alle seine Varianten im Internet, aber ich werde die geben, die Cisco während meines Studiums gegeben hat.


1) Präambel. Das Feld, das verwendet wird, um den Beginn des Frames anzuzeigen. Das heißt, damit der Empfänger verstehen kann, wo der Anfang des neuen Rahmens ist. Wenn früher eine gemeinsame Bustopologie verwendet wurde und es zu Kollisionen kam, half die Präambel, Kollisionen zu vermeiden.

2) MAC-Adresse des Empfängers. Das Feld, in das die Adresse des Empfängers geschrieben wird.

3) MAC-Adresse des Absenders. Dementsprechend wird hier die Absenderadresse erfasst.

4) Typ (Länge). Dieses Feld zeigt das übergeordnete Protokoll an. Für IPv4 ist es 0x0800, für ARP ist es 0x0806 und für IPv6 ist es 0x86DD. In manchen Fällen kann hier die Länge des Datenfeldes des Rahmens (das nächste Feld im Header) geschrieben werden.

5) SNAP / LLC-Feld + Daten. Dieses Feld enthält Daten, die von höheren Ebenen (oder Nutzdaten) empfangen wurden.

6) FCS (Frame Check Sequence). Das Feld, in dem die Prüfsumme berechnet wird. Daraus erkennt der Empfänger, ob der Rahmen kaputt ist oder nicht.

Im Verlauf dieses Schreibens und der folgenden werden andere Protokolle der Verbindungsschicht angesprochen. Bisher reicht das oben Genannte aus, um seine Arbeit zu verstehen.

Wir gehen auf die Netzwerkebene über, und hier treffen wir auf das sensationelle IP-Protokoll. Da wir über die Netzwerkschicht sprechen, bedeutet dies, dass das auf dieser Ebene arbeitende Protokoll irgendwie in der Lage sein muss, Daten von einem Kanalmedium auf ein anderes zu übertragen. Aber zuerst wollen wir sehen, um was für ein Protokoll es sich handelt und woraus es besteht.

IP (vom englischen Internet Protocol). Ein Protokoll der TCP/IP-Familie, das in den 80er Jahren entwickelt wurde. Wie ich bereits sagte, wird es verwendet, um separate Computernetzwerke miteinander zu verbinden. Auch seine wichtige Funktion ist die Adressierung, die als . bezeichnet wird

IP Adresse... Derzeit gibt es 2 Versionen des Protokolls: IPv4 und IPv6. Ein paar Worte zu ihnen:

1) IPv4. Verwendet 32-Bit-Adressen, die im Format von vier Dezimalzahlen (von 0 bis 255) geschrieben sind, getrennt durch Punkte. Die Adresse lautet beispielsweise 192.168.0.4. Jede durch Punkte getrennte Zahl wird als Oktett bezeichnet. Dies ist die bisher beliebteste Version.

2) IPv6. Verwendet 128-Bit-Adressen, die im Format von acht vierstelligen Hexadezimalzahlen (0 bis F) geschrieben sind. Beispiel: Adresse 2001: 0db8: 11a3: 09d7: 1f34: 8a2e: 07a0: 765d. Jede durch Punkte getrennte Zahl wird als Hextett bezeichnet. Zu Beginn der universellen Computerisierung entstand ein Problem. Die IP-Adressen wurden knapp, und es wurde ein neues Protokoll benötigt, das mehr Adressen bereitstellen konnte. So entstand 1996 das IPv6-Protokoll. Aber dank der NAT-Technologie, auf die später noch eingegangen wird, wurde das Problem der fehlenden Adressen teilweise gelöst, so dass sich die Einführung von IPv6 in dieser Hinsicht bis heute verzögert.

Ich denke, es ist klar, dass beide Versionen für die gleichen Zwecke gedacht sind. Dieser Artikel befasst sich mit dem IPv4-Protokoll. Über IPv6 wird ein separater Artikel geschrieben.

Das IP-Protokoll arbeitet also mit einem Informationsblock, der normalerweise als IP-Paket bezeichnet wird. Betrachten wir seine Struktur.


1) Ausführung. IPv4- oder IPv6-Protokoll.

2) IHL (aus dem Englischen Internet Header Length - die Größe des Headers). Da viele der im Bild gezeigten Felder nicht fest sind, berechnet dieses Feld die Größe der Kopfzeile.

3) Art der Dienstleistung. Bedient die Größe der QoS-Warteschlangen (Quality of Service). Er tut dies mit einem Byte, das einen bestimmten Satz von Kriterien (Anforderungen an Latenz, Bandbreite, Zuverlässigkeit usw.)

4) Paketlänge. Packungsgrösse. Wenn IHL nur für die Größe der Felder im Header zuständig ist (der Header sind alle Felder im Bild außer dem Datenfeld), dann ist die Länge des Pakets für das gesamte Paket als Ganzes einschließlich der Nutzdaten verantwortlich.

5) Zeit zu leben (TTL – Zeit zu leben). Das Feld, das verwendet wird, um den Umlauf des Pakets zu verhindern. Beim Durchlaufen des Routers verringert sich der Wert um eins, und wenn er null erreicht, wird das Paket verworfen.

6) Protokoll. Für welches übergeordnete Protokoll dieses Paket bestimmt ist (TCP, UDP).

7) Header-Prüfsumme. Dabei wird die Integrität der Header-Felder berücksichtigt. Keine Daten! Die Daten werden durch das entsprechende Feld auf der Sicherungsschicht geprüft.

8) Optionen. Dieses Feld wird verwendet, um den Standard-IP-Header zu erweitern. Es wird selten in bekannten Netzwerken verwendet. Hier werden Daten für bestimmte Geräte geschrieben, die dieses Feld lesen. Zum Beispiel ein Türschloss-Steuerungssystem (wo die Kommunikation mit dem Controller stattfindet), Smart-Home-Technologie, Internet-Dinge und so weiter. Vertraute Netzwerkgeräte wie Router und Switches ignorieren dieses Feld.

9) Versatz. Gibt an, wohin das Fragment in der ursprünglichen IP gehört. Dieser Wert ist immer ein Vielfaches von acht Byte.

10) Daten. Hier sind die von den höheren Ebenen empfangenen Daten enthalten. Oben habe ich gezeigt, dass es auch im Ethernet-Frame ein Datenfeld gibt. Und das angegebene IP-Paket wird in sein Datenfeld aufgenommen. Beachten Sie, dass die maximale Größe eines Ethernet-Frames 1500 Byte beträgt, die Größe eines IP-Pakets jedoch 20 KB betragen kann. Dementsprechend passt nicht das gesamte Paket in das Datenfeld des Ethernet-Frames. Daher wird das Paket geteilt und in Teilen verschickt. Und dafür werden die 3 folgenden Felder verwendet.

11) Kennung. Dies ist eine 4-Byte-Zahl, die anzeigt, dass alle Teile des geteilten Pakets ein einziges Ganzes sind.

12) Flaggen. Zeigt an, dass es sich nicht um ein einzelnes Paket, sondern um ein fragmentiertes Paket handelt.

13) Fragmentversatz. Offset relativ zum ersten Fragment. Das heißt, dies ist eine Nummerierung, die hilft, das IP-Paket zusammenzufügen.

14) IP-Adresse des Absenders und IP-Adresse des Empfängers. Dementsprechend zeigen diese 2 Felder an, von wem und für wen das Paket ist.

So sieht ein IP-Paket aus. Für Anfänger werden die Werte vieler Felder natürlich nicht ganz klar erscheinen, aber in Zukunft wird es in den Kopf passen. Beispiel: Feld "Time to Live (TTL)". Seine Arbeit wird klar, wenn Sie verstehen, wie das Routing funktioniert. Ich kann Ratschläge geben, die ich selbst anwende. Wenn Sie einen unverständlichen Begriff sehen, schreiben Sie ihn separat auf und versuchen Sie, wenn Sie Freizeit haben, ihn zu entziffern. Wenn es Ihnen nicht in den Sinn kommt, verschieben Sie es und studieren Sie es etwas später wieder. Die Hauptsache ist, es nicht wegzuwerfen und es schließlich zu beenden.

Die letzte Schicht des TCP/IP-Stacks bleibt. Das Transportschicht... Ein paar Worte zu ihm. Es soll Daten an eine bestimmte Anwendung liefern, die es durch die Portnummer identifiziert. Je nach Protokoll übernimmt es unterschiedliche Aufgaben. Zum Beispiel Dateifragmentierung, Lieferkontrolle, Multiplexing und Verwaltung von Datenströmen. Die beiden bekanntesten Transportschichtprotokolle sind UDP und TCP. Lassen Sie uns über jeden von ihnen genauer sprechen, und ich beginne aufgrund seiner Einfachheit mit UDP. Nun, aus Tradition zeige ich, woraus es besteht.


1) Quellport. Der Port, der vom Client oder Server verwendet wird, um den Dienst zu identifizieren. An diesen Port wird ggf. eine Antwort gesendet.

2) Bestimmungshafen. Hier wird der Port angegeben, der das Ziel sein soll. Wenn ein Client beispielsweise eine Website-Seite anfordert, ist der Zielport standardmäßig der 80. (HTTP-Protokoll).

3) UDP-Länge. UDP-Header-Länge. Die Größe reicht von 8 bis 65535 Byte.

4) UDP-Prüfsumme. Integritätsprüfung. Wenn es verletzt wird, verwirft es es einfach, ohne um erneutes Senden zu bitten.

5) Daten. Hier werden die Daten der obersten Ebene gepackt. Wenn beispielsweise ein Webserver auf eine Client-Anfrage antwortet und eine Webseite sendet, dann liegt er in diesem Feld.

Wie Sie sehen, hat es nicht so viele Felder. Seine Aufgabe ist es, die Ports zu nummerieren und zu prüfen, ob der Frame kaputt ist oder nicht. Das Protokoll ist einfach und erfordert keine Ressourcen. Es kann jedoch keine Zustellungskontrolle bereitstellen und fehlerhafte Informationsblöcke erneut anfordern. Bekannte Dienste, die mit diesem Protokoll arbeiten, sind DHCP, TFTP. Sie wurden in dem Artikel berücksichtigt, als die Protokolle der obersten Ebene behandelt wurden.

Gehen Sie zu einem komplexeren Protokoll über. Wir erfüllen das TCP-Protokoll. Wir schauen uns an, woraus es besteht und gehen jedes Feld durch.


1) Quellport und Zielport. Sie erfüllen die gleichen Aufgaben wie bei UDP, nämlich die Portnummerierung.

2) Seriennummer. Die Nummer, die verwendet wird, damit auf der anderen Seite klar ist, was dieses Segment auf dem Konto ist.

3) Bestätigungsnummer. Dieses Feld wird verwendet, wenn die Lieferung aussteht oder die Lieferung bestätigt wurde. Dazu wird der Parameter ACK verwendet.

4) Die Länge des Headers. Es wird verwendet, um zu verstehen, welche Größe der TCP-Header hat (dies sind alle Felder im obigen Bild, außer dem Datenfeld) und welche Größe die Daten haben.

5) Reserviertes Flag. Der Wert dieses Feldes muss auf Null gesetzt werden. Es ist für besondere Bedürfnisse reserviert. Zum Beispiel, um eine Netzwerküberlastung zu melden.

6) Flaggen. In diesem Feld werden spezielle Bits gesetzt, um eine Sitzung aufzubauen oder zu beenden.

7) Fenstergröße. Ein Feld, das angibt, wie viele Segmente eine Bestätigung erfordern. Wahrscheinlich hat jeder von euch ein solches Bild gesehen. Sie laden eine Datei herunter und sehen die Download-Geschwindigkeit und -Zeit. Und dann zeigt er zuerst, dass noch 30 Minuten übrig sind und nach 2-3 Sekunden schon 20 Minuten. Nach weiteren 5 Sekunden werden 10 Minuten angezeigt und so weiter. Dies ist die Größe des Fensters. Zuerst wird das Fenster so bemessen, dass es mehr Bestätigungen für jedes gesendete Segment empfängt. Dann geht alles gut und das Netzwerk fällt nicht aus. Die Fenstergröße ändert sich und mehr Segmente werden übertragen und erfordern daher weniger Zustellberichte. Somit ist der Download schneller. Sobald das Netzwerk kurz ausfällt und einige Segmente geschlagen ankommen, ändert sich die Größe erneut und es werden mehr Zustellberichte benötigt. Dies ist die Essenz dieses Feldes.

8) TCP-Prüfsumme.Überprüfen der Integrität des TCP-Segments.

9) Bedeutungsindex. Dies ist der Offset des letzten wichtigen Datenoktetts relativ zur SEQ für Pakete mit gesetztem URG-Flag. Im wirklichen Leben wird es verwendet, wenn es erforderlich ist, den Fluss oder den Zustand des Protokolls der oberen Schicht vom sendenden Agenten zu steuern (z. B. wenn der empfangende Agent dem sendenden Agenten indirekt signalisieren kann, dass er den Datenfluss nicht bewältigen kann ).

10) Optionen. Wird für alle erweiterten oder zusätzlichen Parameter verwendet. Zum Beispiel für den Zeitstempelparameter, der eine Art Beschriftung ist, die den Zeitpunkt des aufgetretenen Ereignisses anzeigt.

11) Daten. Fast das gleiche wie beim UDP-Protokoll. Hier werden Daten einer höheren Ebene gekapselt.

Wir sahen den Aufbau des TCP-Protokolls und beendeten gleichzeitig das Gespräch über die Transportschicht. Es stellte sich heraus, dass eine so kurze Theorie über die Protokolle auf den unteren Ebenen funktioniert. Ich habe versucht, es so einfach wie möglich zu erklären. Jetzt werden wir das Ganze in der Praxis ausprobieren und ein paar Fragen beantworten.

Ich öffne CPT und stelle eine Schaltung ähnlich einem der obigen Bilder zusammen.


Hier sehen wir das erste Netzwerk, bestehend aus 4 Computern und einem Switch, der diese Computer vereint. Und das 2. Netzwerk, bestehend aus zwei Computern und einem Switch. Ein Router verbindet diese 2 Netzwerke. Kommen wir zum Einrichten von Geräten und simulieren dann die Situation, die wir ganz am Anfang im Bild betrachtet haben.

Ich öffne PC1 und notiere die Netzwerkeinstellungen.


Ich bin mit der Adresse nicht zu schlau geworden und habe die einfachste verwendet, die uns ständig vor Augen steht:

1) IP-Adresse - 192.168.1.1

Wir haben diese Maske oben betrachtet. Ich möchte Sie daran erinnern, dass die Netzwerkadresse anderer Hosts im selben lokalen Netzwerk 192.168.1 sein muss und die Hostadresse zwischen 1 und 254 liegen kann.

Dies ist die Adresse des Routers, an den Daten für Hosts in einem anderen lokalen Netzwerk gesendet werden.

Damit es nicht viele Bilder des gleichen Typs gibt, werde ich keine Screenshots von den anderen 3 Computern geben, sondern nur deren Einstellungen angeben.

PC2:
1) IP-Adresse - 192.168.1.2
.
3) Das Hauptgateway ist 192.168.1.254.

PC3:
1) IP-Adresse - 192.168.1.3
2) Subnetzmaske - 255.255.255.0.
3) Das Hauptgateway ist 192.168.1.254.

PC4:
1) IP-Adresse - 192.168.1.4
2) Subnetzmaske - 255.255.255.0.
3) Das Hauptgateway ist 192.168.1.254.

Lassen Sie uns vorerst bei dieser Einstellung anhalten und sehen, wie unser lokales Netzwerk funktioniert. Ich habe CPT in den Simulationsmodus versetzt. Nehmen wir an, ich sitze an PC1 und möchte PC4 anpingen, um die Verfügbarkeit zu erfahren. Ich öffne die Kommandozeile auf PC1.


Sobald ich ENTER drücke, erscheinen 2 Hüllkurven im Diagramm.


Einer davon ist ICMP, mit dem der Ping-Befehl selbst arbeitet. Ich öffne es sofort und schaue.


Ich sehe IP- und ICMP-Daten. Außer ein paar Feldern gibt es hier nichts Interessantes. Nämlich die Zahl 4 in der oberen linken Ecke der IP-Daten, die anzeigt, dass das IPv4-Protokoll verwendet wird. Und 2 Felder mit Quell- und Ziel-IP-Adresse (SRC: 192.168.1.1 und DST: 192.168.1.4).

Aber hier läuft Ping auf ein Problem. Er kennt die Ziel-MAC-Adresse nicht. Das heißt, die Link-Layer-Adresse. Dazu verwendet er das ARP-Protokoll, das Netzwerkteilnehmer abfragen und die MAC-Adresse herausfinden kann. Wir haben im vorigen Artikel nebenbei über ihn gesprochen. Lassen Sie uns genauer darüber sprechen. Ich werde Traditionen nicht ändern. Bild im Studio!

1) Hardwaretyp. Ich denke, aus dem Namen geht hervor, dass hier der Typ der Kanalschicht angegeben wird. Bisher haben wir uns nur Ethernet angesehen. Seine Bezeichnung in diesem Feld ist 0x0001.

2) Protokolltyp. Hier wird ebenfalls die Art der Netzwerkschicht angegeben. Der IPv4-Code ist 0x0800.

3) Die Länge der physikalischen Adresse in Byte (Hardware-Länge). Wenn es sich um eine MAC-Adresse handelt, beträgt die Größe 6 Byte (oder 48 Bit).

4) Die Länge der logischen Adresse in Byte (Protokolllänge). Wenn es sich um eine IPv4-Adresse handelt, beträgt die Größe 4 Byte (oder 32 Bit).

5) Betriebscode. Opcode des Absenders. Wenn es sich um eine Anfrage handelt, lautet der Code 0001. Bei einer Antwort - 0002.

6) Hardwareadresse des Senders. MAC-Adresse des Absenders.

7) Logische Absenderadresse (Absenderprotokolladresse). IP-Adresse des Absenders.

8) Die physikalische Adresse des Empfängers (Zielhardwareadresse). MAC-Adresse des Empfängers. Handelt es sich um eine Anfrage, so ist die Adresse in der Regel unbekannt und dieses Feld wird leer gelassen.

9) Die logische Adresse des Empfängers (Zielprotokolladresse). Empfänger-IP-Adresse.

Da wir nun wissen, woraus es besteht, können wir uns ansehen, wie es in CPT funktioniert. Ich klicke auf den zweiten Umschlag und sehe das folgende Bild.


Und hier ist das ARP-Protokoll in seiner ganzen Pracht. Auf der 2. Ebene funktioniert das Ethernet-Protokoll. Lassen Sie uns anhalten und uns seine Felder ansehen.

1) Präambel- hier ist eine Bitfolge, die über den Anfang des Rahmens spricht.

2) Als nächstes kommen die Quell- und Ziel-MAC-Adressen. Die Quelladresse enthält die MAC-Adresse des Initiatorcomputers und die Zieladresse enthält die Broadcast-Adresse FF-FF-FF-FF-FF-FF (dh für alle Knoten in der Kanalumgebung).

3) Typ - hier wird das übergeordnete Protokoll angezeigt. Code 0x806 bedeutet, dass ARP höher ist. Um ehrlich zu sein, kann ich nicht mit Sicherheit sagen, auf welcher Ebene es funktioniert. Verschiedene Quellen weisen darauf unterschiedlich hin. Jemand sagt das auf der 2. OSI-Ebene und jemand sagt das auf der 3. Ebene. Ich glaube, es funktioniert zwischendurch. Da es Adressen gibt, die jeder der Ebenen innewohnen.

Ich werde nicht viel über die Daten und die Prüfsumme sprechen. Die Daten werden hier in keiner Weise angezeigt und die Prüfsumme ist Null.

Wir gehen etwas höher und hier ist das Protokoll ARP.

1) Hardwaretyp- Link-Layer-Code. CPT entfernte die zusätzlichen Nullen und fügte 0x1 (wie 0x0001) ein. Es ist Ethernet.
2) Protokolltyp- Code der Netzwerkschicht. 0x800 ist IPv4.
3) HLEN- die Länge der physikalischen Adresse. 0x6 bedeutet 6 Byte. Das ist richtig (die MAC-Adresse ist 6 Byte).
4) PLEN- die Länge der Netzwerkadresse. 0x4 bedeutet 4 Byte (IP-Adresse ist 4 Byte).
5) OPCODE- Operationscode. 0x1 bedeutet, dass dies eine Anfrage ist.
6) Quell-Mac- Hier ist die MAC-Adresse des Absenders. Sie können diese mit der Adresse im Feld Ethernet-Protokoll vergleichen und sich vergewissern, dass sie korrekt ist.
7) Quell-IP- IP-Adresse des Absenders.
8) Ziel-MAC- Da dies eine Anfrage ist und die Kanaladresse nicht bekannt ist, ist sie leer. CPT zeigte es in Nullen an, was dasselbe ist.
9) Ziel-IP- Die IP-Adresse des Empfängers. Dies ist genau die Adresse, die wir anpingen.


ARP fragt alle Hosts im lokalen Netzwerk ab und nur einer antwortet auf diese Anfrage. Das ist PC4. Mal sehen, wie er antwortet.


Hier spuckt er etwas auf den Schalter aus. Ich öffne es und sehe einige Änderungen, nämlich:

1) Das Quellfeld des Ethernet-Protokolls enthält jetzt die MAC-Adresse von PC4 und das Zielfeld enthält die MAC-Adresse des Initiators, also PC1.
2) Das OPCODE-Feld ist jetzt 0x2, dh die Antwort.
3) Die Felder der logischen und physikalischen Adressen im ARP-Protokoll haben sich geändert. Quell-MAC und Ziel-MAC sind die gleichen wie bei Ethernet. Im Feld Quell-IP lautet die Adresse 192.168.1.4 (PC4) und im Feld Ziel-IP die Adresse 192.168.1.1 (PC1).

Sobald diese Information PC1 erreicht, bildet sie sofort eine ICMP-Nachricht, also Ping.


Ich öffne es und schaue. Dies ist ein Datenblock, der aus der Arbeit von 3 Protokollen besteht: Ethernet, IP und Ping.

1) Es gibt nichts Neues im Ethernet-Protokoll, nämlich die Quell-MAC-Adresse ist PC1, die Ziel-MAC-Adresse ist PC4 und das Feld Typ ist 0x800 (IPv4-Protokoll).
2) Im IP-Protokoll ist das Versionsfeld 4, was IPv4-Protokoll bedeutet. Die IP des Senders ist PC1 und die IP des Empfängers ist PC4.
3) Im ICMP-Protokoll im Feld Typ - Code 0x8 (Echo-Anforderung).

Es sendet eine Echoanforderung, und ich sehe, wie PC4 reagiert.


Ich habe mein CPT verzerrt und musste es neu starten. Nur ist die ICMP-Hüllkurve jetzt nicht hellgrün, sondern eine Mischung aus Grün und Blau. Aber es macht keinen Unterschied. Das sind die gleichen Daten.
Nun, ich sehe, wie PC4 reagiert hat. Die Quell- und Zielfelder in Ethernet und IP wurden vertauscht. Und im Typ-Feld des ICMP-Protokolls änderten sich die Werte von 0x8 auf 0x0 (bedeutet eine Echo-Antwort).

Logischerweise sollte, sobald diese Antwort PC1 erreicht, ein Eintrag in der PC1-Konsole erscheinen. Lass uns das Prüfen.


Und in der Tat. Es gab eine Aufzeichnung von PC4-Verfügbarkeit, Datengröße (32 Byte), Zeitverzögerung (8 ms) und TTL oder Time-to-Live (128). TTL zeigt an, wie viele Router das Paket durchlaufen haben. Mein Paket war im lokalen Netzwerk unterwegs, daher hat sich dieses Feld nicht geändert.

Standardmäßig sendet Ping 4 Anfragen. Daher wird PC1 3 weitere ähnliche ICMPs bilden. Ich werde nicht den Pfad jedes Pakets anzeigen, aber die endgültige Konsolenausgabe auf PC1 geben.


Und wie Sie sehen, gibt es wirklich 4 Antworten. Beachten Sie, dass die erste mit einer Latenz von 8 ms und die letzten 3 mit einer Latenz von 4 ms auftraten. Dies ist auf die Arbeit des ARP-Protokolls zurückzuführen, da PC1 zunächst die MAC-Adresse von PC4 nicht kannte und darauf wartete, informiert zu werden. Obwohl es bei CPT die Situation gibt, dass in Echtzeit das erste Paket im Allgemeinen verloren geht. Dies gilt insbesondere, wenn die Verfügbarkeit eines Hosts überprüft wird, der sich in einer anderen Kanalumgebung befindet.

Wir haben gesehen, wie die Datenübertragung in einer Einkanalumgebung funktioniert. Sehen wir uns nun an, was passiert, wenn sich die Hosts in verschiedenen Kanalumgebungen oder Subnetzen befinden. Ich möchte Sie daran erinnern, dass das Netzwerk nicht vollständig konfiguriert ist. Sie müssen nämlich den Router und das zweite Subnetz konfigurieren. Was werden wir jetzt machen.

Ich öffne einen Computer namens PC5 und schreibe die Netzwerkeinstellungen auf.


Beachten Sie, dass die Netzwerkadressierung in der ersten Verbindungsumgebung 192.168.1.X und in der zweiten 192.168.2.X war. Bei einer Maske von 255.255.255.0 bedeutet dies, dass die ersten 3 Oktette fest sind und das 4. Oktett im Bereich von 1 bis 254 liegt. Und da unsere 3. Oktette unterschiedlich sind, sind dies unterschiedliche Kanalumgebungen.

Hier sind die PC6-Einstellungen:

1) IP-Adresse - 192.168.2.2
2) Subnetzmaske - 255.255.255.0
3) Das Hauptgateway - 192.168.2.254

Die Hosts in der 2. Kanalumgebung sind eingerichtet und funktionieren einwandfrei. Damit sie mit Hosts des 1. Kanals kommunizieren können, müssen Sie einen Router konfigurieren, der diese Umgebungen verbindet. Der Router wird über die CLI konfiguriert (also in Konsolenform) und es wird einfacher, hier keine Screenshots, sondern Befehle zu bringen.

1) Router> aktivieren - Übergang in den privilegierten Modus
2) Router # Terminal konfigurieren - in den globalen Konfigurationsmodus wechseln
3) Router (config) #Schnittstelle fastEthernet 0/0 - Fahren Sie mit der Einstellung von Port 0/0 fort, der die erste Kanalumgebung betrachtet
4) Router (config-if) #IP-Adresse 192.168.1.254 255.255.255.0 - wir hängen eine IP-Adresse an diesen Port. Da dieser Port das Hauptgateway für die 1. Kanalumgebung sein wird, geben wir ihm die IP an, die den Hosts zugewiesen wurde
5) Router (config-if) #kein Herunterfahren - schalten Sie diese Schnittstelle ein. Standardmäßig sind alle Ports auf Cisco-Routern deaktiviert
6) Router (config-if) #exit - fastEthernet 0/0 Setup-Modus verlassen
7) Router (config) #Schnittstelle fastEthernet 0/1 - Fahren Sie mit der Einstellung von Port 0/1 fort, der die Umgebung des zweiten Kanals betrachtet
8) Router (config-if) #IP-Adresse 192.168.2.254 255.255.255.0 - Wir hängen die Adresse hier auf, die das Hauptgateway für Hosts in der 2nd-Channel-Umgebung sein wird
9) Router (config-if) #kein Herunterfahren - ebenso aktivieren
10) Router (config-if) #end - Wir schreiben einen Befehl, der ihn in den privilegierten Modus versetzt
11) Router # copy running-config startup-config - Speichern Sie die Einstellungen im Speicher des Routers

In diesem Stadium ist die Konfiguration des Routers abgeschlossen. Ich laufe ein wenig voraus und zeige den nützlichen Befehl "show ip route". Es zeigt alle dem Router bekannten Netzwerke und die Route zu ihnen an.

Anhand dieser Tabelle können Sie sicherstellen, dass er sowohl die 1. Kanalumgebung als auch die 2. Umgebung kennt. Bußgeld. Es bleibt nur noch die Verfügbarkeit von PC5 von PC1 zu prüfen. Ich versuche es. CPT in den Simulationsmodus schalten. Ich öffne die Kommandozeile und ping 192.168.2.1.


Sobald ich ENTER drücke, erscheinen 2 Umschläge gleichzeitig: ICMP und ARP. Lass uns innehalten und sie uns genauer ansehen. Nun mag es scheinen, dass sich die Übertragung zwischen verschiedenen Kanalumgebungen nicht von der Übertragung in einer Kanalumgebung unterscheidet, aber dies ist nicht der Fall. Und jetzt wirst du es sehen.

Schauen wir uns zuerst ICMP an.


Bisher gibt es hier im Prinzip nichts Interessantes. Das Quellfeld ist die IP-Adresse von PC1 und das Zielfeld ist die IP-Adresse von PC5.

Was wird als nächstes passieren. PC1 sieht, dass er die Verfügbarkeit eines Hosts in einer anderen Verbindungsumgebung prüft (durch Maskieren seiner eigenen IP-Adresse und der Ziel-IP-Adresse). Und außer der IP-Adresse weiß er auch nichts über den Empfänger. Dementsprechend kann ein ICMP-Paket in dieser Form nicht gesendet werden. Aber er weiß, dass er ein Haupt-Gateway hat, das höchstwahrscheinlich etwas über die Kanalumgebung weiß, in der sich PC5 befindet. Aber es entsteht eine weitere Komplikation. Er kennt die IP-Adresse des Gateways (die ich ihm in den Netzwerkeinstellungen zugewiesen habe), kennt aber seine MAC-Adresse nicht. Hier hilft das ARP-Protokoll, das alle Teilnehmer in der Kanalumgebung abfragt und deren MAC-Adresse findet. Sehen wir uns an, wie die Felder ausgefüllt werden.


Auf der Verbindungsschicht (Ethernet-Protokoll): Das Quellfeld ist die MAC-Adresse von PC1 und das Zielfeld ist die Broadcast-Adresse (dh an alle Teilnehmer).

Und etwas höher (ARP-Protokoll):

1) SOURCE MAC ist der gleiche PC1 und DESTINATION MAC ist leer (muss von dem ausgefüllt werden, für den diese Anfrage bestimmt ist).
2) SOURCE IP ist die PC1-Adresse, aber DESTINATION IP ist die Standard-Gateway-Adresse.


3 Computer ließen das Paket fallen und nur der Router erkannte, dass es für ihn war. Mal sehen, wie er antwortet.


Ethernet:

1) Quell-MAC - hier fügt er seine MAC-Adresse ein (nämlich die fastEthernet0 / 0-MAC-Adresse).
2) Ziel-MAC - notiert hier die MAC-Adresse von PC1 (d. h. desjenigen, der angefordert hat).
ARP:
1) Quell-MAC und Ziel-MAC ähneln den Einträgen im Ethernet-Protokoll.
2) Quell-IP - Ihre IP-Adresse.
3) Ziel-IP - PC1-IP-Adresse.


Sobald ARP PC1 vom Router erreicht, sendet PC1 sofort eine ICMP-Nachricht an den Router (oder das Standard-Gateway). Und hier bitte ich um besondere Aufmerksamkeit. Nämlich in die Quell- und Zielfelder (sowohl in Ethernet als auch in IP).

1) SRC MAC: Dies ist die MAC-Adresse von PC1.
2) DEST MAC: MAC-Adresse des Routers.
3) SRC-IP: PC1-IP-Adresse.
4) DST IP: PC5 IP-Adresse.

Was bedeutet das. Adressen auf Netzwerkebene (d. h. IP-Adressen) ändern sich nicht, damit Sie wissen, von wem und an wen die Informationen sind. Und die Adressen auf der Verbindungsschicht (MAC-Adressen) können sich leicht ändern, indem sie von einem Verbindungsmedium zum anderen wechseln. Es ist sehr wichtig zu verstehen und sich daran zu erinnern!

Mal sehen was passiert. Das Paket kommt beim Router an und wird sofort durchgestrichen. Und das alles aufgrund der Tatsache, dass er die MAC-Adresse von PC5 nicht kennt. Jetzt stellt er eine ARP-Anfrage und versucht es herauszufinden. Hier ist ein Screenshot dieser Anfrage.

Sobald diese Antwort den Router erreicht, kennt dieser die PC5-Link-Adresse. Aber hier ist, was passiert ist. Während das Gimmick mit ARP den Router und PC5 in die Länge zog, wurde PC1 beim Warten auf eine Antwort von ICMP eine Zeitüberschreitung ausgesetzt. Ich zeige das Bild.


Nach Ablauf des Timeouts generiert er einen zweiten ICMP, dessen Antwort bereits problemlos empfangen wird, da die MAC-Adressen bekannt sind. Es bildet dann das 3. und 4. ICMP. Hier ist das Endergebnis.


Und wenn Sie genau hinschauen, werden Sie feststellen, dass die TTL um eins abgenommen hat und jetzt gleich 127 ist. Dies ist darauf zurückzuführen, dass das Paket einen Transitabschnitt (Router) passiert hat.

So funktioniert die Datenübertragung von einem Kanalmedium zum anderen (oder von einem Netzwerk zu einem anderen). Dabei spielt es übrigens keine Rolle, wie viele Kanalumgebungen Sie überwinden müssen, um zum Empfänger zu gelangen. Das Prinzip wird auch weiterhin so sein.

Im vorherigen Artikel haben wir uns bei der Betrachtung der Protokolle der oberen Schicht ein wenig mit der Transportschicht befasst. Ich schlage vor, mich an dieses Niveau zu erinnern und es fest zu sichern.

Ich fange wie immer mit einem einfachen an. Und das ist UDP. Wie ich oben sagte, wird es verwendet, um Daten an ein bestimmtes übergeordnetes Protokoll zu übertragen. Dies geschieht über Ports. Eines der Protokolle, die mit UDP arbeiten, ist TFTP (Trivial File Transfer Protocol). Wir haben dieses Protokoll im vorherigen Artikel betrachtet. Daher sollten keine Schwierigkeiten auftreten. Für diese Demonstration müssen Sie Ihrem Netzwerk einen TFTP-fähigen Server hinzufügen.

Die Servereinstellungen sind wie folgt:

1) IP-Adresse - 192.168.1.5
2) Subnetzmaske - 255.255.255.0
3) Das Hauptgateway - 192.168.1.254

Der TFTP-Dienst ist standardmäßig aktiviert, aber es ist am besten, dies zu überprüfen. Als nächstes schalte ich CPT in den Simulationsmodus und versuche, die Router-Konfiguration auf dem TFTP-Server zu speichern:

1) Router> aktivieren - Übergang in den privilegierten Modus.
2) Router # kopiere startup-config tftp: - Ich schreibe den Befehl copy (also kopieren), dann startup-config (was genau kopiert werden soll) und tftp: (wohin kopiert werden soll).
3) Adresse oder Name des entfernten Hosts? 192.168.1.5 - es kommt eine Nachricht heraus, die nach der Adresse oder dem Namen des Servers fragt, wo ich seine Adresse schreibe.
4) Zieldateiname? - dann fragt er, unter welchem ​​Namen es auf dem Server gespeichert werden soll und bietet einen Standardnamen an. Das passt zu mir und ich drücke ENTER.


Der Router bildet gleichzeitig zwei Umschläge. Einer ist durchgestrichenes TFTP und der andere ist ARP. Ich denke, sie haben erraten, dass es durchgestrichen wurde, weil es die MAC-Adresse des Servers nicht kennt.

Ich überspringe den Moment der ARP-Arbeit, da wir genug davon gesehen haben.


Schauen wir uns genauer an, was der Router an den Server sendet.

Ethernet:
1) Quell-MAC - Router-Adresse.
2) Ziel-MAC - Serveradresse.
3) Typ - 0x800 (bedeutet, dass das IP-Protokoll oben funktioniert).

IP:
1) Protokoll - 0x11 (bedeutet, dass das UDP-Protokoll oben funktioniert).
2) Quell-IP - Router-Adresse.
3) Ziel-IP - Serveradresse.

UDP:
1) Quellport – dynamisch erstellter Port (1025).
2) Zielport – der Port, den der TFTP-Server abhört (reservierter Port 69).

TFTP:
Hier befinden sich die Daten selbst.

So funktioniert UDP. Es richtet keine Sitzungen ein, erfordert keine Zustellungsbestätigung und fragt nicht erneut nach, wenn etwas verloren geht. Seine Aufgabe besteht darin, die Portnummer anzugeben und zu senden. Was als nächstes passiert, interessiert ihn nicht. Es gibt jedoch Fälle, in denen dies nicht zu Ihnen passt und alle diese Parameter von entscheidender Bedeutung sind. Dann kommt TCP zur Rettung. Betrachten wir es anhand eines Beispiels für die Verwendung eines Webservers und eines Webclients. Wir werden denselben TFTP-Server als Webserver haben. Schalten Sie den HTTP-Dienst ein und fordern Sie eine Seite von PC1 an. Vergessen Sie nicht, CPT in den Simulationsmodus zu schalten!


Ich tippe die Adresse des Webservers ein und drücke ENTER.

Bevor ich fortfahre, werde ich über das Einrichten einer TCP-Sitzung sprechen. Ich werde versuchen, diesen Prozess so einfach wie möglich darzustellen. Dieser Vorgang wird als "Drei-Wege-Handshake" oder "Handshake" bezeichnet. Was ist der Sinn. Der Client sendet ein TCP-Segment mit dem SYN-Flag. Nach Erhalt des Segments trifft der Server eine Entscheidung. Stimmt er zu, eine Verbindung aufzubauen, sendet er ein Antwortsegment mit dem Flag "SYN + ACK". Wenn Sie nicht einverstanden sind, sendet es das Segment mit dem "RST"-Flag. Als nächstes schaut sich der Client das Antwortsegment an. Wenn das Flag "SYN + ACK" vorhanden ist, sendet es als Antwort ein Segment mit dem Flag "ACK" und eine Verbindung wird aufgebaut. Wenn das Flag "RST" vorhanden ist, wird der Verbindungsversuch abgebrochen. Nachdem die hergestellte Verbindung unterbrochen werden muss, generiert und sendet der Client ein TCP-Segment mit dem Flag "FIN + ACK". Der Server antwortet auf dieses Segment mit dem gleichen Flag "FIN + ACK". Schließlich sendet der Client das letzte TCP-Segment mit dem Flag "ACK". Jetzt sehen Sie, wie das in der Praxis funktioniert.

Ich wende meine Aufmerksamkeit dem Netzwerk zu und sehe, wie PC1 ein TCP-Segment bildet.


Die Bereiche der Ethernet- und IP-Protokolle werde ich nicht berücksichtigen, da es hier nichts Neues gibt, außer dem Bereich Protokoll im IP-Protokoll. Es gibt einen Wert - 0x6. Dies legt nahe, dass oben das TCP-Protokoll verwendet wird.

Aber in TCP ist es schon interessanter.

1) Quellport - 1025 (dies ist der dynamisch generierte Web-Client-Port).
2) Zielport - 80 (dies ist ein reservierter HTTP-Port).
3) Flag - SYN (Anfrage zum Aufbau einer Sitzung)

Mal sehen, wie der Webserver reagiert.


Es vertauscht die Portnummern und sendet das Segment mit dem Flag "SYN + ACK".

Sobald der Client dieses Segment erhält, bildet er sofort 2 Nachrichten. Eines davon ist das darunter liegende TCP-Segment, das mit dem "ACK"-Flag gesendet wird.

Und das zweite ist HTTP, wo die Protokollversion, die Seiten- und Serveradresse angegeben wird.


Seine Arbeit wurde in einem früheren Artikel vorgestellt. Daher werde ich mich nicht wiederholen. Jetzt zeige ich Ihnen den Abschluss der Sitzung.


Sobald der Client die gewünschte Seite erhält, macht es für ihn keinen Sinn mehr, die Verbindung aufrechtzuerhalten und leitet eine Unterbrechung ein. Sendet ein Segment mit dem FIN + ACK Flag. Wir suchen weiter.


Der Server erklärt sich damit einverstanden, die Verbindung zu beenden und sendet als Antwort ein Segment mit demselben "FIN + ACK"-Flag.


Schließlich generiert der Client das letzte TCP-Segment mit dem Flag "ACK" und schließt die Verbindung.

Wir haben uns angeschaut, wie das TCP-Protokoll funktioniert, und haben uns schließlich die Protokolle der unteren Schicht angesehen. Hier ist ein Link zum Herunterladen dieses Labs. Zuerst hatte ich die Idee, den Standardweg zu gehen und für jedes Level einen eigenen Artikel zu schreiben, aber dann wurde mir klar, dass es sinnlos war, dies zu tun. Da zum Zeitpunkt des Schreibens des nächsten Artikels das meiste des vorherigen vergessen wurde.

Nun, der Artikel neigt sich dem Ende zu. Ich möchte dem Benutzer unter dem Spitznamen remzalp für das bereitgestellte Bild und anderen Benutzern, die nützliche Kommentare zu den Artikeln hinterlassen, meinen Dank aussprechen. Es ist sehr angenehm zu sehen, wie interessiert sich Menschen sind, Fragen stellen und sich sachlich und konstruktiv streiten. Ich möchte, dass sich die russischsprachige IT-Community immer mehr entwickelt und die Anzahl der Materialien für das Studium im freien Zugang erhöht. Danke fürs Lesen und bis zum nächsten.

  • tcp / ip
  • icmp
  • Tags hinzufügen

    Die physikalische Schicht befasst sich mit der Übertragung von Bits über physikalische Kommunikationskanäle, wie z. B. Koaxialkabel, Twisted-Pair-Kabel, Glasfaserkabel oder Digital Area Circuit. Dieser Pegel hängt mit den Eigenschaften physikalischer Datenübertragungsmedien wie Bandbreite, Störfestigkeit, Wellenwiderstand und anderen zusammen. Auf der gleichen Ebene werden die Eigenschaften von diskreten Informationen übertragenden elektrischen Signalen bestimmt, beispielsweise die Steilheit der Pulsflanken, die Spannungs- oder Strompegel des übertragenen Signals, die Art der Codierung und die Signalübertragungsrate. Außerdem sind hier die Steckertypen und der Verwendungszweck jedes Kontaktes standardisiert.

    Die Funktionen der physikalischen Schicht sind in allen an das Netzwerk angeschlossenen Geräten implementiert. Auf der Computerseite werden die Funktionen der physikalischen Schicht von einem Netzwerkadapter oder einer seriellen Schnittstelle ausgeführt.

    Ein Beispiel für ein Physical-Layer-Protokoll ist die l0-Base-T-Spezifikation der Ethernet-Technologie, die ein ungeschirmtes Twisted-Pair-Kabel der Kategorie 3 mit einem Wellenwiderstand von 100 Ohm, einem RJ-45-Stecker, einer maximalen Länge eines physikalischen Segments . definiert von 100 Metern, einen Manchester-Code zur Darstellung von Daten in Kabeln sowie einige andere Merkmale der Umgebung und elektrische Signale.

    Verbindungsschicht

    Auf der physikalischen Schicht werden Bits einfach übertragen. Dies berücksichtigt nicht, dass in einigen Netzwerken, in denen Kommunikationsleitungen abwechselnd von mehreren Paaren interagierender Computer verwendet (geteilt) werden, das physikalische Übertragungsmedium belegt sein kann. Daher besteht eine der Aufgaben der Sicherungsschicht darin, die Verfügbarkeit des Übertragungsmediums zu überprüfen. Eine weitere Aufgabe der Sicherungsschicht besteht darin, Fehlererkennungs- und -korrekturmechanismen zu implementieren. Dazu werden die Bits auf der Sicherungsschicht in Mengen gruppiert, die als bezeichnet werden Rahmen... Die Verbindungsschicht stellt die Korrektheit der Übertragung jedes Frames sicher, indem sie eine spezielle Bitfolge am Anfang und Ende jedes Frames platziert, um sie zu extrahieren, und berechnet auch die Prüfsumme, verarbeitet alle Bytes des Frames auf eine bestimmte Weise und addiert die Prüfsumme zum Rahmen. Wenn ein Frame über das Netzwerk eintrifft, berechnet der Empfänger die Prüfsumme der empfangenen Daten erneut und vergleicht das Ergebnis mit der Prüfsumme aus dem Frame. Wenn sie übereinstimmen, wird der Rahmen als korrekt betrachtet und akzeptiert. Wenn die Prüfsummen nicht übereinstimmen, wird ein Fehler aufgezeichnet. Die Verbindungsschicht kann Fehler nicht nur erkennen, sondern auch korrigieren, indem sie beschädigte Frames erneut überträgt. Es ist zu beachten, dass die Fehlerkorrekturfunktion für die Link-Schicht nicht zwingend erforderlich ist und daher in einigen Protokollen dieser Schicht, beispielsweise in Ethernet und Frame Relay, nicht verfügbar ist.

    Die Protokolle der Verbindungsschicht, die in lokalen Netzwerken verwendet werden, haben eine bestimmte Struktur von Verbindungen zwischen Computern und Möglichkeiten, diese zu adressieren. Obwohl der Link Layer die Zustellung eines Frames zwischen zwei beliebigen Knoten des lokalen Netzwerks sicherstellt, tut er dies nur in einem Netzwerk mit einer vollständig definierten Topologie von Links, genau der Topologie, für die es entworfen wurde. Gemeinsame Bus-, Ring- und Sterntopologien, die von LAN-Verbindungsschichtprotokollen unterstützt werden, umfassen gemeinsame Bus-, Ring- und Sterntopologien sowie daraus abgeleitete Strukturen unter Verwendung von Brücken und Switches. Beispiele für Verbindungsschichtprotokolle sind Ethernet, Token Ring, FDDI, 100VG-AnyLAN.

    In lokalen Netzwerken werden Verbindungsschichtprotokolle von Computern, Bridges, Switches und Routern verwendet. In Computern werden Funktionen der Verbindungsschicht gemeinsam durch Netzwerkadapter und deren Treiber implementiert.

    In Weitverkehrsnetzen, die selten über eine regelmäßige Topologie verfügen, ermöglicht die Sicherungsschicht oft den Austausch von Nachrichten nur zwischen zwei benachbarten Computern, die über einen einzigen Link verbunden sind. Beispiele für Punkt-zu-Punkt-Protokolle (wie solche Protokolle oft genannt werden) sind die weit verbreiteten PPP- und LAP-B-Protokolle. In solchen Fällen werden Einrichtungen der Netzwerkschicht verwendet, um Nachrichten zwischen Endknoten über das gesamte Netzwerk zu übermitteln. So sind X.25-Netzwerke organisiert. Manchmal ist es in Weitverkehrsnetzen schwierig, Link-Layer-Funktionen in ihrer reinen Form zu isolieren, da sie im gleichen Protokoll mit Network-Layer-Funktionen kombiniert sind. Beispiele für diesen Ansatz sind ATM- und Frame-Relay-Protokolle.

    Im Allgemeinen ist die Sicherungsschicht ein sehr mächtiger und vollständiger Satz von Funktionen zum Übertragen von Nachrichten zwischen Netzwerkknoten. In einigen Fällen erweisen sich Link-Layer-Protokolle als autarke Vehikel und können es ermöglichen, dass Anwendungsschicht-Protokolle oder Anwendungen direkt darauf arbeiten, ohne die Mittel der Netzwerk- und Transportschichten einzubeziehen. Beispielsweise gibt es eine Implementierung des SNMP-Netzwerkverwaltungsprotokolls direkt über Ethernet, obwohl dieses Protokoll standardmäßig über das IP-Netzwerkprotokoll und das UDP-Transportprotokoll läuft. Natürlich ist der Einsatz einer solchen Implementierung begrenzt - sie ist nicht geeignet für verkettete Netzwerke verschiedener Technologien, zum Beispiel Ethernet und X.25, und sogar für ein Netzwerk, in dem Ethernet in allen Segmenten verwendet wird, aber es gibt Schleifen -ähnliche Verbindungen zwischen den Segmenten. Aber in einem Ethernet-Netzwerk mit zwei Segmenten, das über eine Bridge verbunden ist, ist die Implementierung von SNMP über der Sicherungsschicht durchaus praktikabel.

    Um dennoch einen qualitativ hochwertigen Nachrichtentransport in Netzwerken beliebiger Topologien und Technologien zu gewährleisten, reichen die Funktionen der Verbindungsschicht nicht aus, daher wird im OSI-Modell die Lösung dieses Problems den nächsten beiden Ebenen zugeordnet - Netzwerk und Transport.

    Netzwerkschicht

    Die Netzschicht dient dazu, ein einziges Transportsystem zu bilden, das mehrere Netze vereint, und diese Netze können völlig unterschiedliche Prinzipien für die Übertragung von Nachrichten zwischen Endknoten verwenden und eine beliebige Struktur von Verbindungen haben. Die Funktionen der Netzwerkschicht sind sehr vielfältig. Beginnen wir mit der Untersuchung am Beispiel der Kombination lokaler Netzwerke.

    Sicherungsschichtprotokolle von lokalen Netzwerken stellen die Datenlieferung zwischen beliebigen Knoten nur in einem Netzwerk mit einer geeigneten typischen Topologie sicher, beispielsweise einer hierarchischen Sterntopologie. Dies ist eine sehr schwerwiegende Einschränkung, die es nicht erlaubt, Netzwerke mit einer entwickelten Struktur aufzubauen, beispielsweise Netzwerke, die mehrere Unternehmensnetzwerke zu einem einzigen Netzwerk kombinieren, oder hochzuverlässige Netzwerke, in denen redundante Verbindungen zwischen Knoten vorhanden sind. Es wäre möglich, die Protokolle der Verbindungsschicht zu komplizieren, um schleifenartige redundante Verbindungen aufrechtzuerhalten, aber das Prinzip der Aufgabentrennung zwischen den Schichten führt zu einer anderen Lösung. Um einerseits die Einfachheit der Datenübertragungsverfahren für typische Topologien zu erhalten und andererseits die Verwendung beliebiger Topologien zu ermöglichen, wird eine zusätzliche Netzwerkschicht eingeführt.

    Auf Netzwerkebene der Begriff selbst Netzwerk mit einer bestimmten Bedeutung versehen. In diesem Fall wird ein Netzwerk als eine Menge von Computern verstanden, die gemäß einer der standardmäßigen typischen Topologien miteinander verbunden sind und zur Datenübertragung eines der für diese Topologie definierten Sicherungsschichtprotokolle verwenden.

    Innerhalb des Netzwerks wird die Datenlieferung von der entsprechenden Verbindungsschicht bereitgestellt, aber die Netzwerkschicht ist für die Lieferung von Daten zwischen Netzwerken verantwortlich, was die Möglichkeit unterstützt, den richtigen Weg für die Übertragung von Nachrichten zu wählen, selbst wenn die Struktur der Verbindungen zwischen den konstituierenden Netzwerken hat einen anderen Charakter als der in den Verbindungsschichtprotokollen angenommene. Netzwerke werden durch spezielle Geräte, sogenannte Router, miteinander verbunden. Router ist ein Gerät, das Informationen über die Topologie der Zusammenschaltung sammelt und darauf basierend die Vermittlungsschichtpakete an das Zielnetz weiterleitet. Um eine Nachricht von einem Absender in einem Netzwerk an einen Empfänger in einem anderen Netzwerk zu übertragen, müssen Sie einen bestimmten Betrag aufbringen Transitübertragungen zwischen Netzwerken oder Hops(von hüpfen- springen), jedes Mal eine geeignete Route wählen. Somit ist eine Route eine Folge von Routern, die ein Paket durchläuft.

    In Abb. 1.27 zeigt vier Netzwerke, die durch drei Router verbunden sind. Es gibt zwei Routen zwischen den Knoten A und B in diesem Netzwerk: die erste über die Router 1 und 3 und die zweite über die Router 1, 2 und 3.

    Reis. 1.27. Beispiel für ein zusammengesetztes Netzwerk

    Das Problem der Wahl des besten Weges heißt Routing, und ihre Lösung ist eine der Hauptaufgaben der Netzwerkschicht. Dieses Problem wird dadurch verschärft, dass der kürzeste Weg nicht immer der beste ist. Kriterium für die Wahl einer Route ist oft der Zeitpunkt der Datenübertragung entlang dieser Route; sie hängt von der Bandbreite der Kommunikationskanäle und der Verkehrsintensität ab, die sich im Laufe der Zeit ändern kann. Einige Routing-Algorithmen versuchen, sich an Laständerungen anzupassen, während andere Entscheidungen auf der Grundlage von Durchschnittswerten im Laufe der Zeit treffen. Die Routenauswahl kann nach anderen Kriterien erfolgen, beispielsweise nach der Übertragungssicherheit.

    Im allgemeinen Fall sind die Funktionen der Netzwerkschicht breiter als die Funktionen der Übertragung von Nachrichten über Verbindungen mit nicht standardisierter Struktur, die wir nun am Beispiel der Zusammenfassung mehrerer lokaler Netze untersucht haben. Die Netzwerkschicht löst auch das Problem der Harmonisierung verschiedener Technologien, der Vereinfachung der Adressierung in großen Netzwerken und der Schaffung zuverlässiger und flexibler Barrieren für unerwünschten Datenverkehr zwischen Netzwerken.

    Nachrichten der Netzwerkschicht werden normalerweise aufgerufen Pakete... Bei der Organisation der Zustellung von Paketen auf Netzwerkebene wird das Konzept der "Netzwerknummer" verwendet. In diesem Fall besteht die Empfängeradresse aus dem oberen Teil – der Netzwerknummer und dem unteren Teil – der Knotennummer in diesem Netzwerk. Alle Knoten eines Netzwerks müssen den gleichen oberen Teil der Adresse haben, daher kann der Begriff "Netzwerk" auf Netzwerkebene eine andere, formalere Definition geben: Ein Netzwerk ist eine Ansammlung von Knoten, deren Netzwerkadresse dieselbe Netzwerknummer enthält.

    Auf Netzwerkebene werden zwei Arten von Protokollen definiert. Die erste Art - Netzwerkprotokolle- Umsetzung der Werbung für Pakete über das Netzwerk. Dies sind die Protokolle, auf die häufig Bezug genommen wird, wenn über Netzwerkschichtprotokolle gesprochen wird. Es wird jedoch oft eine andere Art von Protokoll auf die Netzwerkschicht verwiesen, die als Routing-Informationsaustauschprotokolle oder einfach bezeichnet wird Routing-Protokolle... Router verwenden diese Protokolle, um Informationen über die Topologie der Verbindung zu sammeln. Protokolle der Vermittlungsschicht werden durch Softwaremodule des Betriebssystems sowie durch Software und Hardware von Routern implementiert.

    Auf Netzwerkebene gibt es noch andere Arten von Protokollen, die dafür verantwortlich sind, die auf Netzwerkebene verwendete Knotenadresse auf die lokale Netzwerkadresse abzubilden. Solche Protokolle werden oft als Adressauflösungsprotokoll, ARP... Manchmal werden sie nicht auf die Netzwerkebene, sondern auf die Kanalebene bezogen, obwohl die Feinheiten der Klassifizierung ihr Wesen nicht ändern.

    Beispiele für Netzwerkschichtprotokolle sind das IP-Interworking-Protokoll des TCP/IP-Stacks und das IPX-Interworking-Protokoll des Novell-Stacks.

    Transportschicht

    Auf dem Weg vom Sender zum Empfänger können Pakete verstümmelt werden oder verloren gehen. Während einige Anwendungen über eigene Fehlerbehandlungsfunktionen verfügen, gibt es einige, die es vorziehen, sofort eine zuverlässige Verbindung herzustellen. Die Transportschicht stellt Anwendungen oder die obersten Schichten des Stapels – Anwendung und Sitzung – bereit, um Daten mit der erforderlichen Zuverlässigkeit zu übertragen. Das OSI-Modell definiert fünf Dienstklassen, die von der Transportschicht bereitgestellt werden. Diese Arten von Diensten zeichnen sich durch die Qualität der bereitgestellten Dienste aus: Dringlichkeit, die Fähigkeit, eine unterbrochene Verbindung wiederherzustellen, die Verfügbarkeit von Multiplexing-Einrichtungen für mehrere Verbindungen zwischen verschiedenen Anwendungsprotokollen über ein gemeinsames Transportprotokoll und vor allem die Fähigkeit, und Korrektur von Übertragungsfehlern wie Verzerrung, Verlust und Duplizierung von Paketen.

    Die Wahl der Dienstklasse der Transportschicht wird zum einen dadurch bestimmt, inwieweit das Problem der Zuverlässigkeitsgewährleistung durch die Anwendungen selbst und Protokolle über den Transportebenen gelöst wird, und zum anderen davon Die Wahl hängt davon ab, wie zuverlässig das Datentransportsystem ist: ein Netzwerk, das von den Schichten unterhalb des Transports bereitgestellt wird - Netzwerk, Datenverbindung und physikalisch. Wenn also beispielsweise die Qualität von Kommunikationskanälen sehr hoch ist und die Wahrscheinlichkeit von Fehlern, die von untergeordneten Protokollen nicht erkannt werden, gering ist, ist es sinnvoll, einen der leichtgewichtigen Dienste der Transportschicht zu verwenden, die nicht mit zahlreiche Kontrollen, Bestätigungen und andere Methoden zur Erhöhung der Zuverlässigkeit. Wenn die Fahrzeuge der unteren Ebenen zunächst sehr unzuverlässig sind, empfiehlt es sich, sich an den am weitesten entwickelten Dienst der Transportebene zu wenden, der mit maximalen Mitteln zur Fehlererkennung und -beseitigung arbeitet - durch vorläufige Herstellung einer logischen Verbindung, Kontrolle der Nachrichtenzustellung durch Prüfsummen und zyklische Nummerierung von Paketen. , Zustellungs-Timeouts setzen usw.

    In der Regel werden alle Protokolle, beginnend mit der Transportschicht und höher, von der Software der Endknoten des Netzes – den Komponenten ihrer Netzbetriebssysteme – implementiert. Beispiele für Transportprotokolle sind die TCP- und UDP-Protokolle des TCP/IP-Stacks und das SPX-Protokoll des Novell-Stacks.

    Die Protokolle der unteren vier Ebenen werden allgemein als Netzwerktransport oder Transportsubsystem bezeichnet, da sie das Problem des Transports von Nachrichten mit einer bestimmten Qualität in zusammengesetzten Netzwerken mit beliebiger Topologie und verschiedenen Technologien vollständig lösen. Die anderen drei oberen Ebenen lösen das Problem der Bereitstellung von Anwendungsdiensten basierend auf dem bestehenden Transportsubsystem.

    Sitzungsebene

    Die Sitzungsschicht stellt die Kontrolle des Dialogs bereit: Sie legt fest, welche der Parteien gerade aktiv ist, stellt Synchronisationsmittel bereit. Letztere ermöglichen das Einfügen von Breakpoints in lange Durchläufe, sodass Sie im Fehlerfall zum letzten Breakpoint zurückkehren können, anstatt von vorne zu beginnen. In der Praxis verwenden nur wenige Anwendungen die Sitzungsschicht und sie wird selten als separate Protokolle implementiert, obwohl die Funktionen dieser Schicht oft mit den Funktionen der Anwendungsschicht kombiniert und in einem einzigen Protokoll implementiert werden.

    Repräsentative Ebene

    Die Präsentationsschicht befasst sich mit der Form der Präsentation von Informationen, die über das Netzwerk übertragen werden, ohne deren Inhalt zu ändern. Aufgrund der Präsentationsschicht werden die von der Anwendungsschicht des einen Systems übermittelten Informationen immer von der Anwendungsschicht des anderen Systems verstanden. Mit Hilfe dieser Schicht können Anwendungsprotokolle syntaktische Unterschiede in der Datendarstellung oder Unterschiede in Zeichencodes wie ASCII und EBCDIC überwinden. Auf dieser Ebene kann die Datenverschlüsselung und -entschlüsselung durchgeführt werden, wodurch die Geheimhaltung des Datenaustauschs für alle Anwendungsdienste gleichzeitig gewährleistet ist. Ein Beispiel für ein solches Protokoll ist Secure Socket Layer (SSL), das sicheres Messaging für die Anwendungsschichtprotokolle des TCP/IP-Stacks bereitstellt.

    Anwendungsebene

    Die Anwendungsschicht ist eigentlich nur eine Sammlung verschiedener Protokolle, mit denen Netzwerkbenutzer auf gemeinsam genutzte Ressourcen wie Dateien, Drucker oder Hypertext-Webseiten zugreifen und ihre Zusammenarbeit beispielsweise mithilfe des elektronischen Protokolls Mail organisieren können. Die Dateneinheit, auf der die Anwendungsschicht arbeitet, heißt normalerweise Botschaft.

    Es gibt eine sehr breite Palette von Anwendungsdiensten. Nehmen wir als Beispiel einige der gebräuchlichsten Dateidienst-Implementierungen: NCP im Novell NetWare-Betriebssystem, SMB in Microsoft Windows NT, NFS, FTP und TFTP, die Teil des TCP/IP-Stack sind.

    Netzwerkunabhängige und netzwerkunabhängige Ebenen

    Die Funktionen aller Schichten des OSI-Modells können in eine von zwei Gruppen eingeteilt werden: entweder in Funktionen, die von einer bestimmten technischen Implementierung des Netzwerks abhängen, oder in Funktionen, die auf die Arbeit mit Anwendungen ausgerichtet sind.

    Die drei unteren Schichten – physikalische, Kanal und Netz – sind netzabhängig, dh die Protokolle dieser Schichten hängen eng mit der technischen Umsetzung des Netzes und der verwendeten Kommunikationsausrüstung zusammen. Beispielsweise bedeutet der Übergang zu FDDI-Geräten eine vollständige Änderung der Protokolle der physikalischen und der Verbindungsschicht an allen Netzknoten.

    Die obersten drei Ebenen – Anwendung, Repräsentant und Sitzung – sind anwendungsorientiert und hängen wenig von den technischen Merkmalen des Netzwerkdesigns ab. Die Protokolle dieser Schichten werden von Änderungen der Netzwerktopologie, dem Austausch von Geräten oder der Migration auf eine andere Netzwerktechnologie nicht beeinflusst. Somit erfordert der Übergang von Ethernet zur Hochgeschwindigkeits-100VG-AnyLAN-Technologie keine Änderungen in der Software, die die Funktionen der Anwendungs-, Vertreter- und Sitzungsschicht implementiert.

    Die Transportschicht ist eine Zwischenschicht, sie verbirgt alle Details der Funktionsweise der unteren Schichten vor den oberen. Damit können Sie Anwendungen entwickeln, die nicht auf die technischen Mittel des direkten Nachrichtentransports angewiesen sind. In Abb. 1.28 zeigt die Schichten des OSI-Modells, auf denen verschiedene Netzelemente arbeiten. Ein Computer, auf dem ein Netzwerkbetriebssystem installiert ist, interagiert mit einem anderen Computer unter Verwendung von Protokollen aller sieben Schichten. Computer führen diese Interaktion indirekt über verschiedene Kommunikationsgeräte durch: Hubs, Modems, Bridges, Switches, Router, Multiplexer. Je nach Typ kann das Kommunikationsgerät entweder nur auf der physikalischen Schicht (Repeater) oder auf der physikalischen und Kanal (Bridge) oder auf der physikalischen, Kanal und Netzwerk arbeiten und manchmal die Transportschicht (Router) erfassen. In Abb. 1.29 zeigt die Entsprechung der Funktionen verschiedener Kommunikationsgeräte zu den Schichten des OSI-Modells.

    Reis. 1.28. Netzunabhängige und netzunabhängige Schichten des OSI-Modells

    Abbildung 1.29.Übereinstimmung der Funktionen verschiedener Netzwerkgeräte mit den Schichten des OSI-Modells

    Das OSI-Modell ist zwar sehr wichtig, aber nur eines von vielen Kommunikationsmodellen. Diese Modelle und ihre zugehörigen Protokollstapel können sich in der Anzahl der Schichten, ihren Funktionen, Nachrichtenformaten, auf den oberen Schichten unterstützten Diensten und anderen Parametern unterscheiden.

    1.3.4. Das Konzept des "offenen Systems"

    Das OSI-Modell beschreibt, wie der Name schon sagt (Open System Interconnection), die Verbindungen offener Systeme. Was ist ein offenes System?

    In einem weiten Sinne offenes System Jedes System (Computer, Computernetzwerk, Betriebssystem, Softwarepaket, andere Hardware- und Softwareprodukte), das nach offenen Spezifikationen gebaut wurde, kann benannt werden.

    Denken Sie daran, dass der Begriff "Spezifikation" (in der Informatik) als eine formalisierte Beschreibung von Hardware- oder Softwarekomponenten, ihrer Funktionsweise, Wechselwirkungen mit anderen Komponenten, Betriebsbedingungen, Einschränkungen und besonderen Eigenschaften verstanden wird. Es ist klar, dass nicht jede Spezifikation ein Standard ist. Offene Spezifikationen wiederum bedeuten veröffentlichte, öffentlich zugängliche Spezifikationen, die normgerecht sind und nach ausführlicher Diskussion aller interessierten Kreise einvernehmlich verabschiedet werden.

    Die Verwendung offener Spezifikationen bei der Entwicklung von Systemen ermöglicht es Dritten, verschiedene Hard- oder Softwareerweiterungen und -modifikationen für diese Systeme zu entwickeln sowie Soft- und Hardwarekomplexe aus Produkten unterschiedlicher Hersteller zu erstellen.

    Für reale Systeme ist vollständige Offenheit ein unerreichbares Ideal. In der Regel erfüllen selbst in Systemen, die als offen bezeichnet werden, nur wenige Teile, die externe Schnittstellen unterstützen, diese Definition. Die Offenheit der Unix-Betriebssystemfamilie liegt zum Beispiel unter anderem im Vorhandensein einer standardisierten Programmierschnittstelle zwischen Kernel und Anwendungen, die es einfach macht, Anwendungen von einer Unix-Version auf eine andere zu portieren. Ein weiteres Beispiel für teilweise Offenheit ist die Verwendung des Open Driver Interface (ODI) im relativ geschlossenen Novell NetWare-Betriebssystem, um Netzwerkadaptertreiber von Drittanbietern in das System einzubinden. Je offener Spezifikationen bei der Entwicklung eines Systems verwendet werden, desto offener ist es.

    Das OSI-Modell betrifft nur einen Aspekt der Offenheit, nämlich die Offenheit der Interaktionsmittel zwischen Geräten, die an ein Computernetzwerk angeschlossen sind. Hier bezieht sich ein offenes System auf ein Netzwerkgerät, das bereit ist, mit anderen Netzwerkgeräten unter Verwendung von Standardregeln zu interagieren, die das Format, den Inhalt und die Bedeutung von gesendeten und empfangenen Nachrichten bestimmen.

    Werden die beiden Netzwerke nach den Prinzipien der Offenheit aufgebaut, ergeben sich folgende Vorteile:

      die Fähigkeit, ein Netzwerk aus Hard- und Software verschiedener Hersteller aufzubauen, das denselben Standard einhält;

      die Möglichkeit des problemlosen Austauschs einzelner Netzwerkkomponenten durch andere, fortschrittlichere, wodurch das Netzwerk mit minimalen Kosten entwickelt werden kann;

      die Fähigkeit, ein Netzwerk einfach mit einem anderen zu koppeln;

      einfache Entwicklung und Wartung des Netzwerks.

    Ein markantes Beispiel für ein offenes System ist das internationale Internet. Dieses Netzwerk hat sich in voller Übereinstimmung mit den Anforderungen an offene Systeme entwickelt. An der Entwicklung der Standards beteiligten sich Tausende von Spezialisten-Anwendern dieses Netzwerks aus verschiedenen Universitäten, wissenschaftlichen Organisationen und Herstellern von Computerhardware und -software, die in verschiedenen Ländern tätig sind. Schon der Name der Standards, die den Betrieb des Internets definieren – Request For Comments (RFC), was mit „Request for Comments“ übersetzt werden kann – zeigt den offenen und offenen Charakter der angenommenen Standards. Dadurch ist es dem Internet gelungen, verschiedenste Hard- und Software aus einer Vielzahl von weltweit verstreuten Netzwerken zu vereinen.
    Bei Verwendung von Materialien von der Site ist ein Link zum Projekt erforderlich.
    Alle Rechte vorbehalten. © 2006



    In Verbindung stehende Artikel: