Fast-Ethernet-Technologie. Beschreibung der Fast Ethernet Technologie Ethernet und Fast Ethernet Adapter

Das Testlabor von ComputerPress testete 10/100 Mbit/s-Netzwerkkarten für den PCI-Bus, die für den Einsatz in 10/100 Mbit/s-Workstations ausgelegt sind. Ausgewählt wurden die derzeit gängigsten Karten mit einem Durchsatz von 10/100 Mbit/s, da sie zum einen in Ethernet, Fast Ethernet und gemischten Netzwerken eingesetzt werden können und zum anderen die zukunftsträchtige Gigabit-Ethernet-Technologie ( Bandbreite bis 1000 Mbit/s) wird immer noch am häufigsten verwendet, um leistungsstarke Server mit der Netzwerkausrüstung des Netzwerkkerns zu verbinden. Es ist äußerst wichtig, welche hochwertigen passiven Netzwerkgeräte (Kabel, Steckdosen usw.) im Netzwerk verwendet werden. Es ist bekannt, dass, wenn ein Twisted-Pair-Kabel der Kategorie 3 für Ethernet-Netzwerke ausreicht, für Fast Ethernet Kategorie 5 erforderlich ist. Signalstreuung und schlechte Störfestigkeit können die Netzwerkbandbreite erheblich reduzieren.

Der Zweck des Tests bestand darin, zunächst den Index der effektiven Leistung (Performance / Efficiency Index Ratio - im Folgenden P / E-Index) zu bestimmen und erst dann den absoluten Wert des Durchsatzes. Der P/E-Index berechnet sich aus dem Verhältnis der Bandbreite der Netzwerkkarte in Mbit/s zum prozentualen Anteil der CPU-Auslastung. Dieser Index ist der Industriestandard zur Bestimmung der Leistung von Netzwerkadaptern. Es wurde eingeführt, um die Verwendung von Netzwerkkarten von CPU-Ressourcen zu berücksichtigen. Dies liegt daran, dass einige Hersteller von Netzwerkadaptern versuchen, die beste Leistung zu erzielen, indem sie mehr Computerprozessorzyklen verwenden, um Netzwerkvorgänge auszuführen. Eine geringe CPU-Auslastung und eine relativ hohe Bandbreite sind für die Ausführung geschäftskritischer Geschäfts- und Multimediaanwendungen sowie für Echtzeitaufgaben unerlässlich.

Wir haben die Karten getestet, die derzeit am häufigsten für Workstations in Firmen- und lokalen Netzwerken verwendet werden:

  1. D-Link DFE-538TX
  2. SMC EtherPower II 10/100 9432TX / MP
  3. 3Com Fast EtherLink XL 3C905B-TX-NM
  4. Compex RL 100ATX
  5. Intel EtherExpress PRO / 100 + Management
  6. CNet PRO-120
  7. NetGear FA 310TX
  8. Alliierter Telesyn AT 2500TX
  9. Surecom EP-320X-R

Die Hauptmerkmale der getesteten Netzwerkadapter sind in der Tabelle aufgeführt. 1. Lassen Sie uns einige der in der Tabelle verwendeten Begriffe erklären. Die automatische Erkennung der Verbindungsgeschwindigkeit bedeutet, dass der Adapter selbst die maximal mögliche Betriebsgeschwindigkeit bestimmt. Wenn Autosensing unterstützt wird, ist außerdem keine zusätzliche Konfiguration beim Wechsel von Ethernet zu Fast Ethernet und umgekehrt erforderlich. Das heißt, der Systemadministrator muss den Adapter nicht neu konfigurieren und die Treiber neu laden.

Die Unterstützung des Bus-Master-Modus ermöglicht die direkte Übertragung von Daten zwischen der Netzwerkkarte und dem Speicher des Computers. Dadurch wird der Zentralprozessor für andere Operationen frei. Diese Eigenschaft ist zum De-facto-Standard geworden. Kein Wunder, dass alle bekannten Netzwerkkarten den Bus-Master-Modus unterstützen.

Remote Wake-On (Wake on LAN) ermöglicht Ihnen das Einschalten des PCs über das Netzwerk. Das heißt, es wird möglich, den PC außerhalb der Arbeitszeit zu warten. Dazu werden dreipolige Stecker auf Mainboard und Netzwerkadapter verwendet, die mit einem speziellen Kabel (im Lieferumfang enthalten) verbunden werden. Außerdem ist eine spezielle Steuerungssoftware erforderlich. Die Wake-on-LAN-Technologie wird von der Intel-IBM-Allianz entwickelt.

Der Vollduplex-Modus ermöglicht die gleichzeitige Übertragung von Daten in beide Richtungen, Halbduplex - in nur einer. Somit beträgt der maximal mögliche Durchsatz im Vollduplex-Modus 200 Mbit/s.

DMI (Desktop Management Interface) bietet die Möglichkeit, Informationen über die Konfiguration und Ressourcen des PCs mithilfe einer Netzwerkverwaltungssoftware zu erhalten.

Die Unterstützung der WfM-Spezifikation (Wired for Management) ermöglicht einem Netzwerkadapter die Interaktion mit Netzwerkverwaltungs- und Verwaltungssoftware.

Um das Betriebssystem eines Computers aus der Ferne über ein Netzwerk zu booten, werden Netzwerkadapter mit einem speziellen BootROM-Speicher geliefert. Dies ermöglicht eine effiziente Nutzung von plattenlosen Workstations im Netzwerk. Die meisten der getesteten Karten hatten nur einen BootROM-Slot; das BootROM selbst ist normalerweise eine separat bestellte Option.

Die Unterstützung von ACPI (Advanced Configuration Power Interface) hilft, den Stromverbrauch zu reduzieren. ACPI ist eine neue Technologie für das Energiemanagement. Es basiert auf dem Einsatz von Hardware und Software. Grundsätzlich ist Wake on LAN ein integraler Bestandteil von ACPI.

Proprietäre Mittel zur Steigerung der Produktivität können die Effizienz der Netzwerkkarte erhöhen. Die bekanntesten davon sind Parallel Tasking II von 3Com und Adaptive Technology von Intel. Diese Fonds sind in der Regel patentiert.

Unterstützung für die wichtigsten Betriebssysteme wird von fast allen Adaptern bereitgestellt. Zu den wichtigsten Betriebssystemen gehören: Windows, Windows NT, NetWare, Linux, SCO UNIX, LAN Manager und andere.

Der Grad der Serviceunterstützung wird anhand der Verfügbarkeit von Dokumentation, einer Diskette mit Treibern und der Möglichkeit, die neuesten Treiber von der Website des Unternehmens herunterzuladen, beurteilt. Auch die Verpackung spielt eine wichtige Rolle. Aus dieser Sicht sind unserer Meinung nach die besten Netzwerkadapter von D-Link, Allied Telesyn und Surecom. Aber im Allgemeinen war der Support für alle Karten zufriedenstellend.

In der Regel umfasst die Garantie die gesamte Lebensdauer des Netzteils (lebenslange Garantie). Manchmal ist es auf 1-3 Jahre begrenzt.

Prüftechnik

Bei allen Tests wurden die neuesten NIC-Treiber verwendet, die von den Internetservern der jeweiligen Anbieter heruntergeladen wurden. Für den Fall, dass der Treiber der Netzwerkkarte Anpassungen und Optimierungen zuließ, wurden die Standardeinstellungen verwendet (mit Ausnahme des Intel-Netzwerkadapters). Beachten Sie, dass die Karten und die entsprechenden Treiber von 3Com und Intel über die umfangreichsten zusätzlichen Fähigkeiten und Funktionen verfügen.

Die Leistung wurde mit dem Dienstprogramm Perform3 von Novell gemessen. Das Funktionsprinzip des Dienstprogramms besteht darin, dass eine kleine Datei von einer Arbeitsstation auf ein freigegebenes Netzlaufwerk auf dem Server kopiert wird, danach im Dateicache des Servers verbleibt und von dort über einen bestimmten Zeitraum mehrmals gelesen wird. Dies ermöglicht Speicher-Netzwerk-Speicher-Interaktionen und eliminiert die Auswirkungen der Festplattenlatenz. Zu den Dienstprogrammparametern gehören die anfängliche Dateigröße, die endgültige Dateigröße, der Schritt zur Größenänderung und die Testzeit. Das Dienstprogramm Novell Perform3 zeigt Leistungswerte mit unterschiedlichen Dateigrößen, durchschnittliche und maximale Leistung (in KB / s) an. Die folgenden Parameter wurden verwendet, um das Dienstprogramm zu konfigurieren:

  • Anfängliche Dateigröße - 4095 Bytes
  • Endgültige Dateigröße - 65.535 Byte
  • Dateiinkrement - 8192 Byte

Die Testzeit für jede Datei wurde auf zwanzig Sekunden eingestellt.

Jedes Experiment verwendete ein Paar identischer Netzwerkkarten, von denen eine auf einem Server und die andere auf einer Workstation ausgeführt wurde. Dies scheint nicht der gängigen Praxis zu entsprechen, da Server in der Regel spezialisierte Netzwerkadapter mit einer Reihe zusätzlicher Funktionen verwenden. Aber genau so - auf dem Server und auf den Workstations sind die gleichen Netzwerkkarten installiert - wird von allen namhaften Testlaboren der Welt (KeyLabs, Tolly Group, etc.) getestet. Die Ergebnisse sind etwas niedriger, aber das Experiment erweist sich als sauber, da nur die analysierten Netzwerkkarten auf allen Computern funktionieren.

Compaq DeskPro EN-Client-Konfiguration:

  • Pentium II 450-MHz-Prozessor
  • Cache 512 KB
  • RAM 128 MB
  • Festplatte 10 GB
  • Betriebssystem Microsoft Windows NT Server 4.0 c 6 a SP
  • TCP/IP-Protokoll.

Compaq DeskPro EP-Serverkonfiguration:

  • Celeron 400-MHz-Prozessor
  • Arbeitsspeicher 64 MB
  • Festplatte 4,3 GB
  • Betriebssystem Microsoft Windows NT Workstation 4.0 c c 6 a SP
  • TCP/IP-Protokoll.

Die Tests wurden unter Bedingungen durchgeführt, bei denen Computer direkt mit einem Crossover-Kabel der UTP-Kategorie 5 verbunden waren.Während dieser Tests arbeiteten die Karten im 100Base-TX-Vollduplex-Modus. In diesem Modus fällt der Durchsatz etwas höher aus, da ein Teil der Dienstinformationen (zB Empfangsbestätigung) gleichzeitig mit den Nutzinformationen übertragen wird, deren Höhe geschätzt wird. Unter diesen Bedingungen konnten recht hohe Werte des Durchsatzes verzeichnet werden; Der 3Com Fast EtherLink XL 3C905B-TX-NM-Adapter beispielsweise erreicht durchschnittlich 79,23 Mbit/s.

Die Prozessorlast wurde auf dem Server mit dem Dienstprogramm Windows NT Performance Monitor gemessen; die Daten wurden in eine Log-Datei geschrieben. Perform3 wurde auf dem Client ausgeführt, um die Serverprozessorlast nicht zu beeinträchtigen. Als Prozessor des Server-Rechners kam Intel Celeron zum Einsatz, dessen Leistung deutlich unter der Leistung der Pentium II- und III-Prozessoren liegt. Bewusst wurde Intel Celeron verwendet: Fakt ist, da die Prozessorlast mit einem ausreichend großen absoluten Fehler ermittelt wird, fällt bei großen absoluten Werten der relative Fehler kleiner aus.

Nach jedem Test legt das Dienstprogramm Perform3 die Ergebnisse seiner Arbeit als Datensatz in der folgenden Form in eine Textdatei ab:

65535 Byte. 10491,49 kbps. 10491,49 Gesamtkbit/s. 57343 Byte. 10844,03 kbps. 10844.03 Gesamtkbit/s. 49151 Byte. 10737,95 Kbit/s. 1073,95 Gesamtkbit/s. 40959 Byte. 10603,04 kbps. 10603.04 Aggregierte KBps. 32767 Byte. 10497,73 kbps. 10497,73 Gesamtkbit/s. 24575 Byte. 10220,29 kbps. 10220,29 Gesamtkbit/s. 16383 Byte. 9573.00 kbps. 9573.00 Gesamtkbit/s. 8191 Byte. 8195,50 kbps. 8195,50 Gesamtkbit/s. 10844.03 Maximale kbps. 10145,38 Durchschnittliche KBp.

Angezeigt wird die Dateigröße, der entsprechende Durchsatz für den ausgewählten Client und für alle Clients (hier gibt es nur einen Client) sowie den maximalen und durchschnittlichen Durchsatz für den gesamten Test. Die resultierenden Durchschnittswerte für jeden Test wurden mit der Formel von KB/s in Mbit/s umgerechnet:
(KB x 8) / 1024,
und der Wert des KGV wurde als Verhältnis des Durchsatzes zur Prozessorlast in Prozent berechnet. Anschließend wurde aus den Ergebnissen von drei Messungen der Durchschnittswert des KGV berechnet.

Bei Verwendung des Perform3-Dienstprogramms auf Windows NT Workstation trat folgendes Problem auf: Neben dem Schreiben auf ein Netzlaufwerk wurde die Datei auch in den lokalen Dateicache geschrieben, aus dem sie anschließend sehr schnell gelesen wurde. Die Ergebnisse waren beeindruckend, aber unrealistisch, da es per se keine Datenübertragung über das Netzwerk gab. Damit Anwendungen freigegebene Netzlaufwerke wie normale lokale Laufwerke behandeln können, verwendet das Betriebssystem eine spezielle Netzwerkkomponente namens Redirector, die E/A-Anfragen über das Netzwerk umleitet. Wenn das Redirector die Prozedur zum Schreiben einer Datei auf einem freigegebenen Netzlaufwerk ausführt, verwendet das Redirector unter normalen Betriebsbedingungen den Zwischenspeicheralgorithmus von Windows NT. Deshalb schreibt er beim Schreiben auf den Server auch in den lokalen Dateicache des Client-Rechners. Und zum Testen ist es notwendig, dass das Caching nur auf dem Server durchgeführt wird. Um das Caching auf dem Client-Computer zu verhindern, wurden die Parameterwerte in der Windows NT-Registrierung geändert, wodurch das vom Redirector durchgeführte Caching deaktiviert werden konnte. So wurde es gemacht:

  1. Registrierungspfad:

    HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Services \ Rdr \ Parameters

    Parametername:

    UseWriteBehind ermöglicht Write-Behind-Optimierung für Dateien, die geschrieben werden

    Typ: REG_DWORD

    Wert: 0 (Standard: 1)

  2. Registrierungspfad:

    HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Services \ Lanmanworkstation \ Parameter

    Parametername:

    UtilizeNTCaching gibt an, ob der Redirector den Windows NT-Cache-Manager verwendet, um Dateiinhalt zwischenzuspeichern.

    Typ: REG_DWORD Wert: 0 (Standard: 1)

Intel EtherExpress PRO / 100 + Management-Netzwerkadapter

Der Durchsatz und die Prozessorauslastung der Karte sind nahezu identisch mit denen von 3Com. Die Fenster zum Einstellen der Parameter dieser Karte sind unten dargestellt.

Der neue Intel 82559 Controller in dieser Karte bietet eine sehr hohe Leistung, insbesondere in Fast Ethernet-Netzwerken.

Die Technologie, die Intel in seiner Intel EtherExpress PRO / 100+-Karte verwendet, nennt sich Adaptive Technology. Der Kern der Methode besteht darin, die Zeitintervalle zwischen Ethernet-Paketen abhängig von der Netzwerklast automatisch zu ändern. Mit zunehmender Netzwerküberlastung nimmt die Distanz zwischen einzelnen Ethernet-Paketen dynamisch zu, was Kollisionen reduziert und den Durchsatz erhöht. Bei geringer Netzlast und geringer Kollisionswahrscheinlichkeit werden die Zeitintervalle zwischen den Paketen verkürzt, was auch zu einer Leistungssteigerung führt. Die Vorteile dieser Methode sollten in großen kollisionsgefährdeten Ethernet-Segmenten am größten sein, dh in Fällen, in denen Hubs und nicht Switches die Netzwerktopologie dominieren.

Intels neue Technologie namens Priority Packet ermöglicht es, den Datenverkehr durch die NIC entsprechend der Prioritäten einzelner Pakete zu optimieren. Dies bietet die Möglichkeit, die Datenübertragungsraten für geschäftskritische Anwendungen zu erhöhen.

VLAN-Unterstützung wird bereitgestellt (IEEE 802.1Q-Standard).

Es gibt nur zwei Anzeigen auf der Platine - Arbeit / Verbindung, Geschwindigkeit 100.

www.intel.com

SMC EtherPower II 10/100 SMC9432TX/MP-Netzwerkadapter

Die Architektur dieser Karte verwendet zwei vielversprechende Technologien SMC SimulTasking und Programmable InterPacket Gap. Die erste Technologie ähnelt der 3Com Parallel Tasking-Technologie. Vergleicht man die Testergebnisse der Karten dieser beiden Hersteller, kann man auf den Wirkungsgrad der Implementierung dieser Technologien schließen. Beachten Sie auch, dass diese Netzwerkkarte das dritte Ergebnis in Bezug auf Leistung und KGV zeigte und alle Karten außer 3Com und Intel übertraf.

Auf der Karte befinden sich vier LED-Anzeigen: Geschwindigkeit 100, Übertragung, Verbindung, Duplex.

Die Hauptwebsite des Unternehmens ist www.smc.com

Ethernet, aber auch auf die Ausstattung anderer, weniger verbreiteter Netzwerke.

Ethernet- und Fast-Ethernet-Adapter

Adaptereigenschaften

Netzwerkadapter (NIC, Netzwerkschnittstellenkarte) Ethernet und Fast Ethernet können über eine der Standardschnittstellen mit einem Computer verbunden werden:

  • ISA-Bus (Industriestandardarchitektur);
  • PCI-Bus (Peripheral Component Interconnect);
  • PC-Kartenbus (auch bekannt als PCMCIA);

Adapter für den ISA-Systembus (Backbone) waren vor nicht allzu langer Zeit der Haupttyp von Adaptern. Die Zahl der Hersteller solcher Adapter war groß, weshalb Geräte dieser Art am günstigsten waren. ISA-Adapter sind in 8-Bit und 16-Bit verfügbar. 8-Bit-Adapter sind billiger, während 16-Bit-Adapter schneller sind. Der Informationsaustausch über den ISA-Bus kann zwar nicht zu schnell sein (im Limit - 16 MB / s, in der Realität - nicht mehr als 8 MB / s und für 8-Bit-Adapter - bis zu 2 MB / s). Fast Ethernet-Adapter, die für einen effizienten Betrieb hohe Baudraten benötigen, sind daher für diesen Systembus praktisch nicht verfügbar. Der ISA-Bus gehört der Vergangenheit an.

Der PCI-Bus hat den ISA-Bus inzwischen praktisch verdrängt und wird zum wichtigsten Erweiterungsbus für Computer. Es bietet 32- und 64-Bit-Datenaustausch und verfügt über einen hohen Durchsatz (theoretisch bis zu 264 MB/s), der nicht nur die Anforderungen von Fast Ethernet, sondern auch schnellerem Gigabit-Ethernet voll erfüllt. Wichtig ist auch, dass der PCI-Bus nicht nur in IBM-PCs, sondern auch in PowerMac-Computern verwendet wird. Darüber hinaus unterstützt es die automatische Plug-and-Play-Hardwarekonfiguration. Offenbar wird in naher Zukunft die Mehrheit der Netzwerkadapter... Der Nachteil von PCI gegenüber dem ISA-Bus besteht darin, dass die Anzahl seiner Erweiterungssteckplätze in einem Computer normalerweise gering ist (normalerweise 3 Steckplätze). Aber es ist genau Netzwerkadapter Verbinden Sie sich zuerst mit PCI.

Der PC Card Bus (früher PCMCIA) wird derzeit nur in Notebooks verwendet. Bei diesen Computern wird der interne PCI-Bus normalerweise nicht herausgeführt. Die PC-Card-Schnittstelle bietet einen einfachen Anschluss an einen Computer von Miniatur-Erweiterungskarten, und der Wechselkurs mit diesen Karten ist ziemlich hoch. Immer mehr Laptops sind jedoch mit eingebauten Netzwerkadapter, da der Zugang zum Netzwerk ein fester Bestandteil des Standard-Funktionsumfangs wird. Diese On-Board-Adapter werden wieder an den internen PCI-Bus des Computers angeschlossen.

Bei der Wahl Netzwerkadapter auf einen bestimmten Bus ausgerichtet ist, müssen Sie zunächst sicherstellen, dass in dem an das Netzwerk angeschlossenen Rechner noch freie Erweiterungssteckplätze für diesen Bus vorhanden sind. Es ist auch notwendig, den Aufwand bei der Installation des gekauften Adapters und die Aussichten für die Veröffentlichung von Karten dieses Typs zu bewerten. Letzteres kann bei einem Adapterausfall erforderlich sein.

Endlich gibt es mehr Netzwerkadapter Anschluss an den Computer über den parallelen (Drucker) LPT-Anschluss. Der Hauptvorteil dieses Ansatzes besteht darin, dass Sie das Computergehäuse nicht öffnen müssen, um die Adapter anzuschließen. Außerdem belegen die Adapter in diesem Fall nicht die Systemressourcen des Computers, wie Interrupt-Kanäle und DMAs, sowie die Adressen von Speicher und E/A-Geräten. Die Geschwindigkeit des Informationsaustauschs zwischen ihnen und dem Computer ist in diesem Fall jedoch viel geringer als bei Verwendung des Systembusses. Außerdem benötigen sie mehr Prozessorzeit für die Kommunikation mit dem Netzwerk, wodurch der Computer verlangsamt wird.

In letzter Zeit werden immer mehr Computer gefunden, in denen Netzwerkadapter in die Systemplatine eingebaut. Die Vorteile dieses Ansatzes liegen auf der Hand: Der Benutzer muss keinen Netzwerkadapter kaufen und in einem Computer installieren. Sie müssen lediglich das Netzwerkkabel an einen externen Anschluss Ihres Computers anschließen. Der Nachteil besteht jedoch darin, dass der Benutzer nicht den Adapter mit der besten Leistung auswählen kann.

Zu anderen wichtigen Eigenschaften Netzwerkadapter kann zugeschrieben werden:

  • Möglichkeit, den Adapter zu konfigurieren;
  • die Größe des auf der Platine installierten Pufferspeichers und die damit verbundenen Austauschmodi;
  • die Möglichkeit, einen Nur-Lese-Speicherchip auf der Platine für Remote-Boot (BootROM) zu installieren.
  • die Möglichkeit, den Adapter an verschiedene Arten von Übertragungsmedien anzuschließen (Twisted Pair, dünnes und dickes Koaxialkabel, Glasfaserkabel);
  • vom Adapter verwendet Baudrate über das Netzwerk und die Verfügbarkeit der Funktion seiner Vermittlung;
  • die Möglichkeit, den Adapter des Vollduplex-Austauschmodus zu verwenden;
  • Kompatibilität des Adapters (genauer des Adaptertreibers) mit der verwendeten Netzwerksoftware.

Die Benutzerkonfiguration des Adapters wurde hauptsächlich für Adapter verwendet, die für den ISA-Bus ausgelegt sind. Die Konfiguration beinhaltet die Abstimmung auf die Nutzung der Computersystemressourcen (E/A-Adressen, Interrupt-Kanäle und direkter Speicherzugriff, Pufferspeicher und Remote-Boot-Speicher). Die Konfiguration kann durch Einstellen der Schalter (Jumper) in die gewünschte Position oder über das mit dem Adapter gelieferte DOS-Konfigurationsprogramm (Jumperless, Softwarekonfiguration) erfolgen. Beim Starten eines solchen Programms wird der Benutzer aufgefordert, die Hardwarekonfiguration über ein einfaches Menü einzustellen: Adapterparameter auswählen. Das gleiche Programm ermöglicht es Ihnen, Selbsttest Adapter. Die ausgewählten Parameter werden im nichtflüchtigen Speicher des Adapters gespeichert. In jedem Fall müssen Sie bei der Auswahl der Parameter Konflikte mit . vermeiden Systemgeräte Computer und mit anderen Erweiterungskarten.

Der Adapter kann auch beim Einschalten des Computers automatisch im Plug-and-Play-Modus konfiguriert werden. Moderne Adapter unterstützen in der Regel genau diesen Modus, sodass sie vom Benutzer einfach installiert werden können.

Bei den einfachsten Adaptern erfolgt der Austausch mit dem internen Pufferspeicher des Adapters (Adapter-RAM) über den Adressraum der E/A-Geräte. In diesem Fall ist keine zusätzliche Konfiguration von Speicheradressen erforderlich. Die Basisadresse des Shared Memory Buffers muss angegeben werden. Es ist dem Bereich des oberen Speichers des Computers zugeordnet (

Schnelles Ethernet

Fast Ethernet - die am 26. Oktober 1995 offiziell verabschiedete IEEE 802.3 u-Spezifikation definiert einen Protokollstandard für Datenverbindungen für Netzwerke, die sowohl Kupfer- als auch Glasfaserkabel mit einer Geschwindigkeit von 100 Mbit / s verwenden. Die neue Spezifikation ist der Nachfolger des Ethernet IEEE 802.3-Standards und verwendet das gleiche Rahmenformat, CSMA / CD-Medienzugriffsmechanismus und Sterntopologie. Mehrere Konfigurationselemente der physikalischen Schicht haben sich entwickelt, um den Durchsatz zu erhöhen, einschließlich Kabeltypen, Segmentlängen und Anzahl von Hubs.

Fast-Ethernet-Struktur

Um die Funktionsweise und das Zusammenspiel von Fast Ethernet-Elementen besser zu verstehen, sehen Sie sich Abbildung 1 an.

Abbildung 1. Fast-Ethernet-System

Logic Link Control (LLC)-Sublayer

Die IEEE 802.3 u-Spezifikation unterteilt die Funktionen der Verbindungsschicht in zwei Unterschichten: logische Verbindungssteuerung (LLC) und Medienzugriffsschicht (MAC), die unten diskutiert werden. LLC, deren Funktionen durch den Standard IEEE 802.2 definiert sind, bietet tatsächlich die Verbindung mit übergeordneten Protokollen (z. B. IP oder IPX) und stellt verschiedene Kommunikationsdienste bereit:

  • Dienst ohne Verbindung und Empfangsbestätigung. Ein einfacher Dienst, der keine Flusskontrolle oder Fehlerkontrolle bietet und keine korrekte Lieferung von Daten garantiert.
  • Verbindungsorientierter Service. Ein absolut zuverlässiger Service, der durch den Verbindungsaufbau zum empfangenden System vor Beginn der Datenübertragung sowie durch Fehler- und Datenflusskontrollmechanismen eine korrekte Datenanlieferung garantiert.
  • Verbindungsloser Dienst mit Bestätigungen. Ein mäßig komplexer Dienst, der Bestätigungsnachrichten verwendet, um die Zustellung sicherzustellen, aber keine Verbindungen aufbaut, bis Daten übertragen wurden.

Auf dem übertragenden System werden die Downstream-Daten aus dem Protokoll der Vermittlungsschicht zuerst von der LLC-Unterschicht eingekapselt. Der Standard nennt sie Protocol Data Unit (PDU). Wenn die PDU an die MAC-Unterschicht weitergegeben wird, wo sie erneut mit einem Header und einer Post-Information gerahmt wird, kann sie an dieser Stelle technisch als Frame bezeichnet werden. Für ein Ethernet-Paket bedeutet dies, dass der 802.3-Frame zusätzlich zu den Network Layer-Daten einen drei Byte langen LLC-Header enthält. Somit wird die maximal zulässige Datenlänge in jedem Paket von 1500 auf 1497 Byte reduziert.

Der LLC-Header besteht aus drei Feldern:

In einigen Fällen spielen LLC-Frames eine untergeordnete Rolle im Netzwerkkommunikationsprozess. In einem Netzwerk, das TCP / IP zusammen mit anderen Protokollen verwendet, könnte die einzige Funktion von LLC beispielsweise darin bestehen, 802.3-Frames zu erlauben, einen SNAP-Header wie einen Ethertype zu enthalten, der das Protokoll der Netzwerkschicht angibt, an das der Frame gesendet werden soll. In diesem Fall verwenden alle LLC-PDUs das unnummerierte Informationsformat. Andere Protokolle höherer Ebene erfordern jedoch fortschrittlichere Dienste von der LLC. NetBIOS-Sitzungen und mehrere NetWare-Protokolle verwenden beispielsweise verbindungsorientierte LLC-Dienste im weiteren Sinne.

SNAP-Header

Das empfangende System muss bestimmen, welches der Netzwerkschichtprotokolle die eingehenden Daten empfangen soll. 802.3-Pakete innerhalb der LLC PDU verwenden ein anderes Protokoll namens Unter -NetzwerkBetretenProtokoll (SNAP, Subnetting Access Protocol).

Der SNAP-Header ist 5 Byte lang und befindet sich direkt nach dem LLC-Header im Datenfeld des 802.3-Frames, wie in der Abbildung gezeigt. Die Kopfzeile enthält zwei Felder.

Organisationscode. Die Organisations- oder Hersteller-ID ist ein 3-Byte-Feld, das denselben Wert wie die ersten 3 Byte der MAC-Adresse des Absenders im 802.3-Header annimmt.

Lokaler Code. Der lokale Code ist ein 2-Byte-Feld, das funktionell dem Ethertype-Feld im Ethernet II-Header entspricht.

Passende Unterebene

Wie bereits erwähnt, ist Fast Ethernet ein evolutionärer Standard. Ein MAC, der für die AUI-Schnittstelle entwickelt wurde, muss für die MII-Schnittstelle gemappt werden, die in Fast Ethernet verwendet wird, wofür diese Unterschicht gedacht ist.

Medienzugriffskontrolle (MAC)

Jeder Knoten in einem Fast Ethernet-Netzwerk verfügt über einen Media Access Controller (MedienBetretenRegler- MAC). MAC ist der Schlüssel zu Fast Ethernet und hat drei Zwecke:

Die wichtigste der drei MAC-Zuordnungen ist die erste. Für jede Netzwerktechnologie, die ein gemeinsames Medium verwendet, sind die Medienzugriffsregeln, die bestimmen, wann ein Knoten senden kann, ihr Hauptmerkmal. An der Entwicklung von Regeln für den Zugang zur Umwelt sind mehrere IEEE-Gremien beteiligt. Der 802.3-Ausschuss, oft als Ethernet-Ausschuss bezeichnet, definiert LAN-Standards, die Regeln verwenden, die als CSMA /CD(Carrier Sense Multiple Access mit Kollisionserkennung).

CSMS / CD sind Medienzugriffsregeln für Ethernet und Fast Ethernet. In diesem Bereich fallen die beiden Technologien vollständig zusammen.

Da sich alle Teilnehmer bei Fast Ethernet das gleiche Medium teilen, können sie nur senden, wenn sie an der Reihe sind. Diese Warteschlange wird durch CSMA/CD-Regeln definiert.

CSMA / CD

Der MAC Fast Ethernet Controller hört den Träger ab, bevor er sendet. Der Träger existiert nur, wenn ein anderer Knoten sendet. Die PHY-Schicht erkennt das Vorhandensein eines Trägers und erzeugt eine Nachricht für den MAC. Das Vorhandensein eines Trägers zeigt an, dass die Umgebung beschäftigt ist und der hörende Knoten (oder Knoten) dem sendenden weichen muss.

Ein MAC, der einen Frame zu übertragen hat, muss nach dem Ende des vorherigen Frames eine Mindestzeit warten, bevor er ihn überträgt. Diese Zeit heißt Lücke zwischen den Paketen(IPG, interpacket gap) und dauert 0,96 Mikrosekunden, also ein Zehntel der Übertragungszeit eines normalen Ethernet-Pakets bei 10 Mbit/s (IPG ist das einzige Zeitintervall, immer in Mikrosekunden, nicht in Bit-Zeit angegeben) Abbildung 2.


Abbildung 2. Lücke zwischen den Paketen

Nach dem Ende von Paket 1 müssen alle LAN-Knoten die IPG-Zeit abwarten, bevor sie senden können. Das Zeitintervall zwischen den Paketen 1 und 2, 2 und 3 in Abb. 2 ist die IPG-Zeit. Nachdem die Übertragung von Paket 3 abgeschlossen war, hatten keine Knoten Material zu verarbeiten, so dass das Zeitintervall zwischen den Paketen 3 und 4 länger ist als das IPG.

Alle Knoten im Netzwerk müssen diese Regeln einhalten. Selbst wenn ein Knoten viele Frames zu übertragen hat und dieser Knoten der einzige ist, der sendet, muss er nach dem Senden jedes Pakets mindestens IPG-Zeit warten.

Dies ist Teil der CSMA Fast Ethernet Media Access Rules. Kurz gesagt, viele Knoten haben Zugriff auf das Medium und verwenden den Carrier, um zu verfolgen, ob es belegt ist.

Die frühen experimentellen Netzwerke wandten genau diese Regeln an, und solche Netzwerke funktionierten sehr gut. Die alleinige Verwendung von CSMA verursachte jedoch ein Problem. Oftmals begannen zwei Knoten, die ein Paket zu übertragen hatten und auf die IPG-Zeit warteten, gleichzeitig mit der Übertragung, was zu einer Datenkorruption auf beiden Seiten führte. Diese Situation heißt Kollision(Kollision) oder Konflikt.

Um dieses Hindernis zu überwinden, verwendeten frühe Protokolle einen ziemlich einfachen Mechanismus. Pakete wurden in zwei Kategorien unterteilt: Befehle und Reaktionen. Jeder vom Knoten gesendete Befehl erforderte eine Reaktion. Wenn nach dem Senden des Befehls für einige Zeit (sogenannte Timeout-Periode) keine Antwort empfangen wurde, wurde der ursprüngliche Befehl erneut ausgegeben. Dies kann mehrere Male (die maximale Anzahl von Timeouts) passieren, bevor der sendende Knoten den Fehler aufgezeichnet hat.

Dieses Schema könnte gut funktionieren, aber nur bis zu einem bestimmten Punkt. Konflikte führten zu dramatischen Leistungseinbußen (normalerweise in Bytes pro Sekunde gemessen), da Knoten oft im Leerlauf standen und darauf warteten, dass Befehle ihr Ziel nie erreichten. Netzwerküberlastung, eine Zunahme der Anzahl von Knoten, steht in direktem Zusammenhang mit einer Zunahme der Anzahl von Konflikten und folglich mit einer Abnahme der Netzwerkleistung.

Frühe Netzwerkdesigner fanden schnell eine Lösung für dieses Problem: Jeder Knoten muss den Verlust eines übertragenen Pakets erkennen, indem er einen Konflikt erkennt (und nicht auf eine Reaktion warten, die nie folgen wird). Dies bedeutet, dass aufgrund des Konflikts verlorene Pakete unmittelbar vor Ablauf des Timeouts erneut übertragen werden müssen. Wenn der Host das letzte Bit des Pakets ohne Konflikt übertragen hat, wurde das Paket erfolgreich übertragen.

Carrier Sense lässt sich gut mit Kollisionserkennung kombinieren. Es kommt weiterhin zu Kollisionen, dies hat jedoch keinen Einfluss auf die Leistung des Netzwerks, da die Knoten sie schnell loswerden. Die DIX-Gruppe hat die Regeln für den Zugriff auf die CSMA / CD-Umgebung für Ethernet entwickelt und diese in Form eines einfachen Algorithmus formalisiert - Abbildung 3.


Abbildung 3. Algorithmus des CSMA / CD-Betriebs

Gerät der physikalischen Schicht (PHY)

Da Fast Ethernet eine Vielzahl von Kabeltypen verwenden kann, erfordert jedes Medium eine eindeutige Signalvorkonvertierung. Für eine effiziente Datenübertragung ist auch eine Konvertierung erforderlich: um den übertragenen Code resistent gegen Störungen, mögliche Verluste oder Verzerrungen seiner einzelnen Elemente (Baud) zu machen, um eine effektive Synchronisation der Uhren auf der Sende- oder Empfangsseite zu gewährleisten.

Codierungsunterschicht (PCS)

Kodiert / dekodiert Daten, die von / zu der MAC-Schicht kommen, unter Verwendung von Algorithmen oder.

Physische Verbindung und physische Medienabhängigkeits-Sublayer (PMA und PMD)

Die PMA- und PMD-Teilschichten kommunizieren zwischen der PSC-Teilschicht und der MDI-Schnittstelle, wodurch eine Bildung gemäß dem physikalischen Codierverfahren bereitgestellt wird: oder.

Unterebene Autonegotiation (AUTONEG)

Die Auto-Negotiation-Subschicht ermöglicht es zwei kommunizierenden Ports, automatisch den effizientesten Betriebsmodus auszuwählen: Vollduplex oder Halbduplex 10 oder 100 Mbit/s. Physikalische Schicht

Der Fast-Ethernet-Standard definiert drei Arten von 100-Mbit/s-Ethernet-Signalisierungsmedien.

  • 100Base-TX - zwei verdrillte Adernpaare. Die Übertragung erfolgt gemäß dem von ANSI (American National Standards Institute - American National Standards Institute) entwickelten Standard für die Datenübertragung in einem verdrillten physikalischen Medium. Aufgerollte Datenkabel können geschirmt oder ungeschirmt sein. Verwendet den 4B / 5B-Datencodierungsalgorithmus und die physikalische MLT-3-Codierungsmethode.
  • 100Base-FX ist ein zweiadriges Glasfaserkabel. Die Übertragung erfolgt ebenfalls nach dem ANSI-Standard für die Datenübertragung in faseroptischen Medien. Verwendet den 4B / 5B-Datencodieralgorithmus und die physikalische NRZI-Codierungsmethode.

Die Spezifikationen 100Base-TX und 100Base-FX werden auch als 100Base-X bezeichnet

  • 100Base-T4 ist eine spezielle Spezifikation, die vom IEEE 802.3u-Komitee entwickelt wurde. Gemäß dieser Spezifikation erfolgt die Datenübertragung über vier verdrillte Telefonkabelpaare, die als UTP-Kabel der Kategorie 3 bezeichnet werden und verwendet den 8B / 6T-Datencodieralgorithmus und das physikalische NRZI-Codierungsverfahren.

Darüber hinaus enthält der Fast-Ethernet-Standard Richtlinien für abgeschirmte Twisted-Pair-Kabel der Kategorie 1, die traditionell in Token-Ring-Netzwerken verwendet werden. Die Supportorganisation und die Richtlinien für die Verwendung von STP-Kabeln auf Fast Ethernet bieten Kunden mit STP-Kabeln einen Weg zu Fast Ethernet.

Die Fast-Ethernet-Spezifikation beinhaltet auch einen Auto-Negotiation-Mechanismus, der es einem Host-Port ermöglicht, sich automatisch auf eine Datenübertragungsrate von 10 Mbit/s oder 100 Mbit/s einzustellen. Dieser Mechanismus basiert auf dem Austausch einer Reihe von Paketen mit einem Port eines Hubs oder Switches.

100Base-TX-Umgebung

Als Übertragungsmedium für 100Base-TX werden zwei Twisted Pairs verwendet, wobei ein Paar zum Senden von Daten und das andere zum Empfangen verwendet wird. Da die ANSI TP-PMD-Spezifikation Beschreibungen von geschirmten und ungeschirmten Twisted-Pairs enthält, unterstützt die 100Base-TX-Spezifikation sowohl ungeschirmte als auch geschirmte Twisted-Pairs vom Typ 1 und 7.

MDI-Anschluss (Medium Dependent Interface)

Die medienabhängige 100Base-TX-Link-Schnittstelle kann einer von zwei Typen sein. Verwenden Sie für ungeschirmte Twisted-Pair-Kabel als MDI-Anschluss einen 8-poligen RJ 45-Stecker der Kategorie 5. Derselbe Stecker wird in einem 10Base-T-Netzwerk verwendet, um Abwärtskompatibilität mit vorhandener Verkabelung der Kategorie 5 zu gewährleisten. das ist ein abgeschirmter DB9-Stecker. Dieser Connector wird häufig in Token Ring-Netzwerken verwendet.

Kategorie 5 (e) UTP-Kabel

Die Medienschnittstelle UTP 100Base-TX verwendet zwei Adernpaare. Um Übersprechen und mögliche Signalverzerrungen zu minimieren, sollten die verbleibenden vier Drähte nicht zur Übertragung von Signalen verwendet werden. Die Sende- und Empfangssignale für jedes Paar sind polarisiert, wobei ein Draht das positive (+) und der andere negative (-) Signal trägt. Die Farbcodierung der Kabeladern und die Pin-Nummern des Steckers für das 100Base-TX-Netzwerk sind in der Tabelle aufgeführt. 1. Obwohl die 100Base-TX-PHY-Schicht nach dem ANSI TP-PMD-Standard entwickelt wurde, wurden die Pinnummern der RJ 45-Stecker geändert, um sie an die bereits verwendeten 10Base-T-Pinbelegungen anzupassen. Der ANSI TP-PMD-Standard verwendet die Pins 7 und 9, um Daten zu empfangen, während die Standards 100Base-TX und 10Base-T dafür die Pins 3 und 6 verwenden und schließen Sie sie an dieselben Kabel der Kategorie 5 an, ohne die Verkabelung zu ändern. Beim RJ 45-Stecker werden die verwendeten Adernpaare mit den Pins 1, 2 und 3, 6 verbunden. Für den korrekten Anschluss der Adern beachten Sie deren Farbcodierung.

Tabelle 1. Zweck der SteckerkontakteMDIKabelUTP100Base-TX

Knoten interagieren miteinander, indem sie Frames (Frames) austauschen. Bei Fast Ethernet ist ein Frame die Grundeinheit für den Austausch über ein Netzwerk – alle zwischen Knoten übertragenen Informationen werden im Datenfeld eines oder mehrerer Frames platziert. Die Weiterleitung von Frames von einem Knoten zum anderen ist nur möglich, wenn es eine Möglichkeit gibt, alle Netzwerkknoten eindeutig zu identifizieren. Daher hat jeder Knoten in einem LAN eine Adresse, die als MAC-Adresse bezeichnet wird. Diese Adresse ist eindeutig: Keine zwei Knoten im lokalen Netzwerk können dieselbe MAC-Adresse haben. Darüber hinaus können in keiner LAN-Technologie (mit Ausnahme von ARCNet) zwei Knoten auf der Welt die gleiche MAC-Adresse haben. Jeder Frame enthält mindestens drei Hauptinformationen: Empfängeradresse, Absenderadresse und Daten. Einige Frames haben andere Felder, aber nur die drei aufgeführten sind erforderlich. Abbildung 4 zeigt die Fast-Ethernet-Frame-Struktur.

Abbildung 4. RahmenstrukturSchnellEthernet

  • Adresse des Empfängers- die Adresse des die Daten empfangenden Knotens wird angegeben;
  • Absenderadresse- die Adresse des Knotens, der die Daten gesendet hat, wird angegeben;
  • Länge / Typ(L / T - Länge / Typ) - enthält Informationen über die Art der übertragenen Daten;
  • Rahmenprüfsumme(PCS – Frame Check Sequence) – entworfen, um die Korrektheit des vom empfangenden Knoten empfangenen Frames zu überprüfen.

Die minimale Framegröße beträgt 64 Oktette oder 512 Bit (Begriffe Oktett und Byte - Synonyme). Die maximale Framegröße beträgt 1518 Oktette oder 12144 Bit.

Rahmenadressierung

Jeder Knoten in einem Fast Ethernet-Netzwerk hat eine eindeutige Nummer, die als MAC-Adresse oder Knotenadresse bezeichnet wird. Diese Nummer besteht aus 48 Bit (6 Byte), die bei der Geräteherstellung der Netzwerkschnittstelle zugewiesen und bei der Initialisierung programmiert werden. Daher haben die Netzwerkschnittstellen aller LANs, mit Ausnahme von ARCNet, das vom Netzwerkadministrator zugewiesene 8-Bit-Adressen verwendet, eine eingebaute eindeutige MAC-Adresse, die sich von allen anderen MAC-Adressen auf der Erde unterscheidet und vom Hersteller zugewiesen wird in Absprache mit dem IEEE.

Um die Verwaltung von Netzwerkschnittstellen zu erleichtern, wurde vom IEEE vorgeschlagen, das 48-Bit-Adressfeld in vier Teile zu unterteilen, wie in Abbildung 5 gezeigt. Die ersten beiden Bits der Adresse (Bit 0 und 1) sind Adresstyp-Flags . Die Bedeutung der Flags bestimmt, wie der Adressteil interpretiert wird (Bit 2 - 47).


Abbildung 5. Format der MAC-Adresse

Das I/G-Bit heißt Einzel- / Gruppenadressen-Flag und zeigt an, was (Einzelperson oder Gruppe) die Adresse ist. Eine individuelle Adresse wird nur einer Schnittstelle (oder einem Knoten) im Netzwerk zugewiesen. Adressen mit auf 0 gesetztem I/G-Bit sind MAC-Adressen oder Knotenadressen. Wenn das I/O-Bit auf 1 gesetzt ist, dann gehört die Adresse zur Gruppe und wird normalerweise aufgerufen Mehrpunktadresse(Multicast-Adresse) oder funktionale Adresse(funktionale Adresse). Einer oder mehreren LAN-Netzwerkschnittstellen kann eine Multicast-Adresse zugewiesen werden. Frames, die an eine Multicast-Adresse gesendet werden, empfangen oder kopieren alle LAN-Netzwerkschnittstellen, die diese haben. Multicast-Adressen ermöglichen das Senden eines Frames an eine Untergruppe von Hosts in einem lokalen Netzwerk. Wenn das I/O-Bit auf 1 gesetzt ist, werden die Bits 46 bis 0 als Multicast-Adresse behandelt und nicht als die U/L-, OUI- und OUA-Felder der normalen Adresse. Das U / L-Bit heißt universelle / lokale Steuerfahne und bestimmt, wie die Adresse der Netzwerkschnittstelle zugewiesen wurde. Wenn beide Bits, I/O und U/L, auf 0 gesetzt sind, dann ist die Adresse die zuvor beschriebene eindeutige 48-Bit-Kennung.

OUI (organisatorisch eindeutige Kennung - organisatorisch eindeutige Kennung). Das IEEE weist jedem Hersteller von Netzwerkadaptern und Schnittstellen eine oder mehrere OUIs zu. Jeder Hersteller ist für die korrekte Zuordnung der OUA (organisatorisch eindeutige Adresse - organisatorisch eindeutige Adresse), die jedes Gerät haben sollte, das es erstellt.

Wenn das U/L-Bit gesetzt ist, wird die Adresse lokal verwaltet. Dies bedeutet, dass es vom Hersteller der Netzwerkschnittstelle nicht spezifiziert ist. Jede Organisation kann ihre eigene MAC-Adresse für eine Netzwerkschnittstelle erstellen, indem sie das U / L-Bit auf 1 und die Bits 2 bis 47 auf einen bestimmten Wert setzt. Die Netzwerkschnittstelle dekodiert, nachdem sie den Rahmen empfangen hat, zunächst die Zieladresse. Wenn das I/O-Bit in der Adresse gesetzt ist, empfängt die MAC-Schicht diesen Frame nur, wenn die Zieladresse in der Liste steht, die auf dem Knoten gespeichert ist. Diese Technik ermöglicht es einem Knoten, einen Rahmen an viele Knoten zu senden.

Es gibt eine spezielle Multicast-Adresse namens Broadcastadresse. Bei einer 48-Bit-IEEE-Broadcast-Adresse werden alle Bits auf 1 gesetzt. Wenn ein Frame mit einer Ziel-Broadcast-Adresse übertragen wird, empfangen und verarbeiten ihn alle Knoten im Netzwerk.

Feldlänge / Typ

Das Feld L / T (Länge / Typ) dient zwei verschiedenen Zwecken:

  • um die Länge des Datenfeldes des Rahmens zu bestimmen, ohne jegliche Auffüllung mit Leerzeichen;
  • um den Datentyp im Datenfeld anzugeben.

Der L/T-Feldwert zwischen 0 und 1500 ist die Länge des Datenfeldes des Rahmens; ein höherer Wert gibt den Protokolltyp an.

Im Allgemeinen ist das L/T-Feld ein historisches Überbleibsel der Ethernet-Standardisierung im IEEE, was zu einer Reihe von Kompatibilitätsproblemen für Geräte führte, die vor 1983 veröffentlicht wurden. Heutzutage verwenden Ethernet und Fast Ethernet nie L/T-Felder. Das angegebene Feld dient nur der Abstimmung mit der Software, die Frames (also mit Protokollen) verarbeitet. Aber der einzige wirkliche Standardzweck des L/T-Feldes besteht darin, es als Längenfeld zu verwenden – die 802.3-Spezifikation erwähnt nicht einmal seine mögliche Verwendung als Datentypfeld. Der Standard besagt: "Frames mit einem Längenfeldwert größer als der in Abschnitt 4.4.2 angegebene können ignoriert, verworfen oder privat verwendet werden. Die Verwendung dieser Frames liegt außerhalb des Anwendungsbereichs dieses Standards."

Zusammenfassend stellen wir fest, dass das L / T-Feld der primäre Mechanismus ist, durch den Rahmentyp. Fast Ethernet und Ethernet Frames, bei denen die Länge des L/T-Feldes eingestellt wird (der L/T-Wert 802.3, Frames bei denen der Datentyp durch den Wert des gleichen Feldes (L/T-Wert > 1500) eingestellt wird, heißen Rahmen Ethernet- II oder DIX.

Datenfeld

Im Datenfeld enthält Informationen, die ein Knoten an einen anderen sendet. Im Gegensatz zu anderen Feldern, die sehr spezifische Informationen speichern, kann ein Datenfeld fast alle Informationen enthalten, solange seine Größe mindestens 46 und nicht mehr als 1500 Byte beträgt. Wie der Inhalt eines Datenfeldes formatiert und interpretiert wird, wird durch die Protokolle bestimmt.

Wenn Sie Daten mit einer Länge von weniger als 46 Byte senden müssen, fügt die LLC-Schicht Bytes mit einem unbekannten Wert am Ende der Daten hinzu, genannt unbedeutende Daten(Pad-Daten). Als Ergebnis wird die Feldlänge 46 Bytes.

Wenn der Rahmen vom Typ 802.3 ist, zeigt das L/T-Feld die Menge gültiger Daten an. Wenn beispielsweise eine 12-Byte-Nachricht gesendet wird, enthält das L/T-Feld den Wert 12 und das Datenfeld enthält 34 zusätzliche unbedeutende Bytes. Das Hinzufügen unbedeutender Bytes initiiert die Fast Ethernet LLC-Schicht und wird normalerweise in Hardware implementiert.

Die MAC-Layer-Funktion spezifiziert den Inhalt des L/T-Feldes nicht – die Software tut es. Das Festlegen des Werts dieses Felds wird fast immer vom Netzwerkschnittstellentreiber vorgenommen.

Rahmenprüfsumme

Die Frame Check Sequence (PCS) stellt sicher, dass die empfangenen Frames nicht beschädigt werden. Bei der Bildung des übertragenen Frames auf MAC-Ebene wird eine spezielle mathematische Formel verwendet CRC(Cyclic Redundancy Check), entwickelt, um einen 32-Bit-Wert zu berechnen. Der resultierende Wert wird im FCS-Feld des Frames platziert. Die Werte aller Bytes des Frames werden dem Eingang des MAC-Schichtelements zugeführt, das den CRC berechnet. Das FCS-Feld ist der primäre und wichtigste Fast-Ethernet-Fehlererkennungs- und -korrekturmechanismus. Beginnend mit dem ersten Byte der Zieladresse und endend mit dem letzten Byte des Datenfeldes.

DSAP- und SSAP-Feldwerte

DSAP-/SSAP-Werte

Beschreibung

Indiv LLC Sublayer Mgt

Group LLC Sublayer Mgt

SNA-Pfadsteuerung

Reserviert (DOD-IP)

ISO-CLNS IS 8473

Der 8B6T-Codieralgorithmus wandelt ein 8-Bit-Datenoktett (8B) in ein 6-Bit-ternäres Symbol (6T) um. Die Codegruppen 6T sind für die parallele Übertragung über drei Twisted-Pair-Kabelpaare ausgelegt, sodass die effektive Datenübertragungsrate für jedes Twisted-Pair ein Drittel von 100 Mbit / s beträgt, dh 33,33 Mbit / s. Die ternäre Symbolrate für jedes Twisted Pair beträgt 6/8 von 33,3 Mbit/s, was einer Taktrate von 25 MHz entspricht. Mit dieser Frequenz arbeitet der Timer der MP-Schnittstelle. Im Gegensatz zu binären Signalen, die zwei Pegel haben, können ternäre Signale, die auf jedem Paar übertragen werden, drei Pegel haben.

Zeichencodierungstabelle

Linearer Code

Symbol

MLT-3 Multi Level Transmission - 3 (Multilevel Transmission) - ähnlich dem NRZ-Code, hat aber im Gegensatz zu letzterem drei Signalpegel.

Die Einheit entspricht dem Übergang von einem Signalpegel zum anderen, und die Änderung des Signalpegels erfolgt sequentiell unter Berücksichtigung des vorherigen Übergangs. Beim Senden von "Null" ändert sich das Signal nicht.

Dieser Code muss wie NRZ vorcodiert werden.

Zusammengestellt nach Materialien:

  1. Laem Queen, Richard Russell „Fast Ethernet“;
  2. K. Zakler "Computernetzwerke";
  3. V. G. und N. A. Olifer "Computernetzwerke";

Fast Ethernet - die am 26. Oktober 1995 offiziell verabschiedete IEEE 802.3 u-Spezifikation definiert einen Protokollstandard für Datenverbindungen für Netzwerke, die sowohl Kupfer- als auch Glasfaserkabel mit einer Geschwindigkeit von 100 Mbit / s verwenden. Die neue Spezifikation ist der Nachfolger des Ethernet IEEE 802.3-Standards und verwendet das gleiche Rahmenformat, CSMA / CD-Medienzugriffsmechanismus und Sterntopologie. Mehrere Konfigurationselemente der physikalischen Schicht haben sich entwickelt, um den Durchsatz zu erhöhen, einschließlich Kabeltypen, Segmentlängen und Anzahl von Hubs.

Physikalische Schicht

Der Fast-Ethernet-Standard definiert drei Arten von 100-Mbit/s-Ethernet-Signalisierungsmedien.

· 100Base-TX - zwei verdrillte Adernpaare. Die Übertragung erfolgt gemäß dem von ANSI (American National Standards Institute - American National Standards Institute) entwickelten Standard für die Datenübertragung in einem verdrillten physikalischen Medium. Aufgerollte Datenkabel können geschirmt oder ungeschirmt sein. Verwendet den 4B / 5B-Datencodierungsalgorithmus und die physikalische MLT-3-Codierungsmethode.

· 100Base-FX - zwei Adern, Glasfaserkabel. Die Übertragung erfolgt ebenfalls nach dem ANSI-Standard für die Datenübertragung in faseroptischen Medien. Verwendet den 4B / 5B-Datencodieralgorithmus und die physikalische NRZI-Codierungsmethode.

· 100Base-T4 ist eine spezielle Spezifikation, die vom IEEE 802.3u-Komitee entwickelt wurde. Gemäß dieser Spezifikation erfolgt die Datenübertragung über vier verdrillte Telefonkabelpaare, die als UTP-Kabel der Kategorie 3 bezeichnet werden.Es verwendet den 8B / 6T-Datencodieralgorithmus und das physikalische NRZI-Codierungsverfahren.

Multimode-Kabel

Diese Art von Glasfaserkabel verwendet eine Faser mit einem 50 oder 62,5 Mikrometer Kern und einem 125 Mikrometer Außenmantel. Ein solches Kabel wird als 50/125 (62,5/125) Mikrometer-Multimode-Glasfaserkabel bezeichnet. Ein LED-Transceiver mit einer Wellenlänge von 850 (820) Nanometern wird verwendet, um ein Lichtsignal über ein Multimode-Kabel zu übertragen. Wenn ein Multimode-Kabel zwei Ports von Switches im Vollduplex-Modus verbindet, kann es bis zu 2000 Meter lang sein.

Singlemode-Kabel

Singlemode-Fasern haben einen kleineren Kerndurchmesser von 10 Mikrometern als Multimode-Fasern und verwenden einen Laser-Transceiver für die Übertragung über Singlemode-Kabel, die zusammen eine effiziente Übertragung über lange Distanzen ermöglichen. Die Wellenlänge des übertragenen Lichtsignals liegt nahe dem Kerndurchmesser, der 1300 Nanometer beträgt. Diese Zahl ist als Nulldispersionswellenlänge bekannt. Bei einem Singlemode-Kabel sind Dispersion und Signalverlust sehr gering, wodurch Lichtsignale über größere Distanzen als bei Multimode-Fasern übertragen werden können.


38. Gigabit-Ethernet-Technologie, allgemeine Eigenschaften, Spezifikation der physikalischen Umgebung, Grundkonzepte.
3.7.1. Allgemeine Merkmale der Norm

Schon bald nach der Markteinführung der Fast-Ethernet-Produkte spürten Netzwerkintegratoren und -administratoren gewisse Einschränkungen beim Aufbau von Unternehmensnetzwerken. In vielen Fällen überlasteten Server, die über einen 100-Mbit/s-Kanal verbunden sind, die Netzwerk-Backbones, die auch mit 100 Mbit/s arbeiten – FDDI- und Fast-Ethernet-Backbones. Es bestand Bedarf an der nächsten Stufe der Geschwindigkeitshierarchie. 1995 konnten nur ATM-Switches ein höheres Geschwindigkeitsniveau bieten, und da es zu dieser Zeit noch keine geeigneten Mittel zur Migration dieser Technologie auf lokale Netzwerke gab (obwohl die LAN-Emulation - LANE-Spezifikation Anfang 1995 angenommen wurde, ihre praktische Umsetzung war noch vorn), sie waren ins lokale Netz zu implementieren traute sich kaum jemand. Zudem zeichnete sich die ATM-Technologie durch einen sehr hohen Kostenaufwand aus.

Der nächste Schritt des IEEE erschien also logisch - 5 Monate nach der endgültigen Verabschiedung des Fast-Ethernet-Standards im Juni 1995 wurde die IEEE High Speed ​​​​Technology Research Group beauftragt, die Möglichkeit zu prüfen, einen Ethernet-Standard mit eine noch höhere Bitrate.

Im Sommer 1996 wurde eine 802.3z-Gruppe angekündigt, ein Protokoll zu entwickeln, das dem Ethernet möglichst ähnlich ist, jedoch mit einer Bitrate von 1000 Mbit/s. Wie bei Fast Ethernet wurde die Nachricht von den Ethernet-Befürwortern mit großer Begeisterung aufgenommen.



Der Hauptgrund für die Begeisterung war die Aussicht auf die gleiche reibungslose Migration von Netzwerk-Backbones auf Gigabit-Ethernet, ähnlich der Migration von überlasteten Ethernet-Segmenten, die sich auf den unteren Ebenen der Netzwerkhierarchie befinden, auf Fast Ethernet. Darüber hinaus waren bereits Erfahrungen mit der Übertragung von Daten mit Gigabit-Geschwindigkeit vorhanden, sowohl in territorialen Netzen (SDH-Technologie) als auch in lokalen Netzen - Fibre Channel-Technologie, die hauptsächlich verwendet wird, um Hochgeschwindigkeits-Peripheriegeräte an große Computer anzuschließen und Daten über Glasfaser zu übertragen -optisches Kabel von Geschwindigkeit nahe Gigabit mittels Redundanzcode 8B / 10B.

Die erste Version des Standards wurde im Januar 1997 überprüft, und der 802.3z-Standard wurde schließlich am 29. Juni 1998 auf einer Sitzung des IEEE 802.3-Komitees verabschiedet. Die Arbeiten zur Implementierung von Gigabit-Ethernet auf Twisted-Pair-Kategorie 5 wurden einem Sonderausschuss 802.3ab übertragen, der bereits mehrere Versionen des Entwurfs dieses Standards behandelt hat und seit Juli 1998 das Projekt ziemlich stabil ist. Die endgültige Annahme des 802.3ab-Standards wird im September 1999 erwartet.

Ohne auf die Verabschiedung des Standards zu warten, brachten einige Unternehmen im Sommer 1997 die ersten Gigabit-Ethernet-Geräte über Glasfaserkabel auf den Markt.

Die Hauptidee der Entwickler des Gigabit-Ethernet-Standards ist es, die Ideen der klassischen Ethernet-Technologie so weit wie möglich zu erhalten und gleichzeitig eine Bitrate von 1000 Mbit/s zu erreichen.

Da bei der Entwicklung einer neuen Technologie natürlich einige technische Neuerungen zu erwarten sind, die dem allgemeinen Verlauf der Entwicklung von Netzwerktechnologien folgen, ist es wichtig zu beachten, dass Gigabit Ethernet, wie seine langsameren Pendants, auf Protokollebene wird nicht Unterstützung:

  • Servicequalität;
  • redundante Verbindungen;
  • Testen der Funktionsfähigkeit von Knoten und Geräten (im letzteren Fall - mit Ausnahme des Testens der Port-zu-Port-Kommunikation, wie es für Ethernet 10Base-T und 10Base-F und Fast Ethernet durchgeführt wird).

Alle drei genannten Eigenschaften gelten in modernen Netzen und insbesondere in Netzen der nahen Zukunft als sehr vielversprechend und nützlich. Warum verzichten die Autoren von Gigabit Ethernet darauf?

Der Leitgedanke der Entwickler der Gigabit-Ethernet-Technologie ist, dass es etliche Netze gibt und auch weiterhin geben wird, in denen die hohe Geschwindigkeit des Backbones und die Möglichkeit, Prioritätspakete in den Switches zu vergeben, ausreichen, um die Qualität zu gewährleisten von Transportdiensten für alle Netzwerkkunden. Und nur in den seltenen Fällen, in denen der Backbone ausreichend belastet ist und die Anforderungen an die Dienstgüte sehr streng sind, muss die ATM-Technologie eingesetzt werden, die aufgrund ihrer hohen technischen Komplexität die Dienstgüte für alle garantiert wichtigsten Verkehrsarten.


39. Strukturelles Verkabelungssystem, das in Netzwerktechnologien verwendet wird.
Ein strukturiertes Verkabelungssystem (SCS) ist ein Set von Schaltelementen (Kabel, Stecker, Stecker, Cross-Over Panels und Schränke) sowie eine Technik zu deren gemeinsamen Nutzung, mit der Sie regelmäßige, leicht erweiterbare Kommunikationsstrukturen in Computernetzwerke.

Das strukturierte Verkabelungssystem ist eine Art "Konstruktor", mit dessen Hilfe der Netzwerkdesigner aus Standardkabeln, die über Standardstecker verbunden und auf Standard-Cross-Over-Panels geschaltet werden, die erforderliche Konfiguration aufbaut. Bei Bedarf kann die Konfiguration der Verbindungen einfach geändert werden - fügen Sie einen Computer hinzu, segmentieren, wechseln Sie, entfernen Sie unnötige Geräte und ändern Sie auch die Verbindungen zwischen Computern und Hubs.

Beim Aufbau einer strukturierten Verkabelung wird davon ausgegangen, dass jeder Arbeitsplatz im Unternehmen mit Steckdosen zum Anschluss eines Telefons und eines Computers ausgestattet sein sollte, auch wenn dies derzeit nicht erforderlich ist. Das heißt, ein gut strukturiertes Verkabelungssystem ist redundant. Dies kann in Zukunft Geld sparen, da Änderungen am Anschluss neuer Geräte durch Umstecken vorhandener Kabel vorgenommen werden können.

Eine typische hierarchische Struktur eines strukturierten Verkabelungssystems umfasst:

  • horizontale Subsysteme (innerhalb einer Etage);
  • vertikale Subsysteme (innerhalb des Gebäudes);
  • ein Campus-Subsystem (innerhalb eines Territoriums mit mehreren Gebäuden).

Horizontales Subsystem verbindet den Etagenverteilerschrank mit den Verbrauchersteckdosen. Subsysteme dieser Art entsprechen den Stockwerken eines Gebäudes. Vertikales Subsystem verbindet die Rangierschränke jeder Etage mit der zentralen Leitwarte des Gebäudes. Der nächste Schritt in der Hierarchie ist Campus-Subsystem, die mehrere Gebäude mit der Leitwarte des gesamten Campus verbindet. Dieser Teil des Verkabelungssystems wird allgemein als Backbone bezeichnet.

Strukturierte Verkabelung anstelle von chaotischen Kabeln hat viele Vorteile.

· Vielseitigkeit. Ein strukturiertes Verkabelungssystem mit einer durchdachten Organisation kann zu einem einheitlichen Medium werden, um Computerdaten in einem lokalen Computernetzwerk zu übertragen, ein lokales Telefonnetzwerk zu organisieren, Videoinformationen zu übertragen und sogar Signale von Brandschutzsensoren oder Sicherheitssystemen zu übertragen. Auf diese Weise können Sie viele Prozesse der Steuerung, Überwachung und Verwaltung von wirtschaftlichen Dienstleistungen und Lebenserhaltungssystemen des Unternehmens automatisieren.

· Erhöhte Lebensdauer. Die Obsoleszenz eines gut strukturierten Verkabelungssystems kann 10-15 Jahre betragen.

· Reduzierung der Kosten für das Hinzufügen neuer Nutzer und das Ändern ihrer Platzierungen. Es ist bekannt, dass die Kosten eines Kabelsystems erheblich sind und hauptsächlich nicht von den Kosten des Kabels, sondern von den Kosten für die Verlegung bestimmt werden. Daher ist es rentabler, eine einmalige Verlegung des Kabels durchzuführen, möglicherweise mit einem großen Längenspielraum, als die Verlegung mehrmals durchzuführen, wodurch die Länge des Kabels erhöht wird. Bei diesem Ansatz wird die gesamte Arbeit zum Hinzufügen oder Verschieben eines Benutzers auf das Anschließen des Computers an eine vorhandene Steckdose reduziert.

· Möglichkeit der einfachen Netzwerkerweiterung. Das strukturierte Verkabelungssystem ist modular und damit leicht erweiterbar. Beispielsweise kann einem Trunk ein neues Subnetz hinzugefügt werden, ohne die vorhandenen Subnetze zu beeinträchtigen. Sie können den Kabeltyp in einem separaten Subnetz unabhängig vom Rest des Netzwerks ändern. Das strukturierte Verkabelungssystem ist die Grundlage für die Aufteilung des Netzwerks in leicht überschaubare logische Segmente, da es selbst bereits in physikalische Segmente unterteilt ist.

· Einen effizienteren Service bieten. Das strukturierte Verkabelungssystem ist einfacher zu warten und zu beheben als eine Busverkabelung. Bei einer Busverkabelung führt der Ausfall eines der Geräte oder Verbindungselemente zu einem schwer lokalisierbaren Ausfall des gesamten Netzes. In strukturierten Verkabelungssystemen beeinflusst der Ausfall eines Segments andere nicht, da die Aggregation der Segmente über Hubs erfolgt. Konzentratoren diagnostizieren und lokalisieren den fehlerhaften Bereich.

· Zuverlässigkeit. Ein strukturiertes Verkabelungssystem hat die Zuverlässigkeit erhöht, da der Hersteller eines solchen Systems nicht nur die Qualität seiner einzelnen Komponenten, sondern auch deren Kompatibilität garantiert.


40. Hubs und Netzwerkadapter, Prinzipien, Verwendung, Grundkonzepte.
Hubs stellen zusammen mit Netzwerkadaptern und Kabeln die Mindestmenge an Geräten dar, die zum Erstellen eines lokalen Netzwerks verwendet werden können. Ein solches Netzwerk wird eine gemeinsame gemeinsame Umgebung darstellen.

Netzwerkadapter (Netzwerkschnittstellenkarte, NIC) Zusammen mit seinem Treiber implementiert es die zweite, Link-Layer des offenen Systemmodells im letzten Netzwerkknoten - dem Computer. Genauer gesagt führt in einem Netzwerkbetriebssystem ein Paar aus Adapter und Treiber nur die Funktionen der physikalischen und MAC-Schichten aus, während die LLC-Schicht normalerweise durch ein Betriebssystemmodul implementiert wird, das für alle Treiber und Netzwerkadapter gleich ist. Eigentlich sollte es so nach dem Vorbild des Protokollstacks IEEE 802 sein: In Windows NT ist beispielsweise die LLC-Ebene im NDIS-Modul implementiert, die allen Netzwerkadaptertreibern gleich ist, egal welche Technologie der Treiber unterstützt.

Der Netzwerkadapter führt zusammen mit dem Treiber zwei Operationen aus: Rahmenübertragung und -empfang.

Bei Adaptern für Client-Computer wird ein Großteil der Arbeit auf den Treiber verlagert, wodurch der Adapter einfacher und kostengünstiger wird. Der Nachteil dieses Ansatzes ist die hohe Belastung des Zentralprozessors des Computers durch Routinearbeiten beim Übertragen von Frames aus dem RAM des Computers in das Netzwerk. Der Zentralprozessor ist gezwungen, diese Arbeit zu erledigen, anstatt Benutzeranwendungsaufgaben auszuführen.

Der Netzwerkadapter muss vor der Installation in einem Computer konfiguriert werden. Die Konfiguration eines Adapters gibt normalerweise den vom Adapter verwendeten IRQ, den DMA-Kanal (wenn der Adapter den DMA-Modus unterstützt) und die Basisadresse der E/A-Ports an.

In fast allen modernen Technologien lokaler Netzwerke ist ein Gerät definiert, das mehrere gleiche Namen hat - Hub(Konzentrator), Hub (Hub), Repeater (Repeater). Je nach Einsatzgebiet dieses Gerätes ändert sich die Zusammensetzung seiner Funktionen und das Design erheblich. Nur die Hauptfunktion bleibt unverändert - sie ist Rahmenwiederholung entweder auf allen Ports (wie im Ethernet-Standard definiert) oder nur auf einigen Ports, gemäß dem vom entsprechenden Standard definierten Algorithmus.

Ein Hub hat normalerweise mehrere Ports, an die die Endknoten des Netzwerks – Computer – über separate physische Kabelsegmente angeschlossen sind. Der Konzentrator kombiniert einzelne physische Netzwerksegmente zu einer einzigen gemeinsamen Umgebung, auf die der Zugriff gemäß einem der betrachteten LAN-Protokolle erfolgt - Ethernet, Token Ring usw. Technologien, die ihre eigenen Hubs herstellen - Ethernet; Token-Ring; FDDI und 100VG-AnyLAN. Für ein bestimmtes Protokoll wird manchmal ein eigener, hochspezialisierter Name dieses Gerätes verwendet, der seine Funktionen genauer widerspiegelt oder aufgrund von Traditionen verwendet wird, zum Beispiel ist der Name MSAU charakteristisch für Token-Ring-Konzentratoren.

Jeder Hub führt einige grundlegende Funktionen aus, die im entsprechenden Protokoll der von ihm unterstützten Technologie definiert sind. Obwohl diese Funktion im Technologiestandard detailliert definiert ist, können sich Hubs verschiedener Hersteller bei der Implementierung in Details wie der Anzahl der Ports, der Unterstützung mehrerer Kabeltypen usw. unterscheiden.

Neben der Hauptfunktion kann der Hub eine Reihe von Zusatzfunktionen ausführen, die im Standard entweder gar nicht definiert oder optional sind. Ein Token-Ring-Hub kann beispielsweise die Funktion des Herunterfahrens von fehlerhaften Ports und des Umschaltens auf einen Backup-Ring übernehmen, obwohl solche Fähigkeiten im Standard nicht beschrieben sind. Der Hub erwies sich als praktisches Gerät für die Ausführung zusätzlicher Funktionen, die die Überwachung und den Betrieb des Netzwerks erleichtern.


41. Die Verwendung von Brücken und Schaltern, Prinzipien, Merkmale, Beispiele, Einschränkungen
Strukturieren mit Brücken und Weichen

Das Netzwerk kann mit zwei Arten von Geräten in logische Segmente unterteilt werden - Bridges und / oder Switches (Switch, Switching Hub).

Bridge und Switch sind funktionale Zwillinge. Beide Geräte führen Frames auf der Grundlage derselben Algorithmen weiter. Bridges und Switches verwenden zwei Arten von Algorithmen: einen Algorithmus transparente Brücke, im IEEE 802.1D-Standard beschrieben, oder der Algorithmus Source-Routing-Bridge von IBM für Token Ring-Netzwerke. Diese Standards wurden lange vor der Einführung des ersten Switches entwickelt, daher verwenden sie den Begriff "Bridge". Als das erste industrielle Switch-Modell für die Ethernet-Technologie geboren wurde, führte es denselben IEEE 802.ID-Rahmenweiterleitungsalgorithmus durch, der über ein Dutzend Jahre von Brücken lokaler und globaler Netzwerke entwickelt wurde.

Der Hauptunterschied zwischen einem Switch und einer Bridge besteht darin, dass die Bridge Frames sequentiell verarbeitet, während der Switch Frames parallel verarbeitet. Dieser Umstand ist auf die Tatsache zurückzuführen, dass Brücken in jenen Tagen auftauchten, als das Netzwerk in eine kleine Anzahl von Segmenten unterteilt war und der Verkehr zwischen den Segmenten gering war (es befolgte die 80-mal-20-%-Regel).

Bridges funktionieren heute noch in Netzwerken, jedoch nur auf relativ langsamen globalen Verbindungen zwischen zwei entfernten LANs. Diese Bridges werden Remote-Bridges genannt und funktionieren genauso wie 802.1D oder Source Routing.

Transparente Bridges können zusätzlich zur Übertragung von Frames innerhalb derselben Technologie LAN-Protokolle wie Ethernet in Token Ring, FDDI in Ethernet usw. übersetzen. Diese Eigenschaft transparenter Bridges ist im IEEE 802.1H-Standard beschrieben.

Im Folgenden nennen wir ein Gerät, das Frames mit Hilfe des Bridge-Algorithmus vorantreibt und in einem lokalen Netzwerk arbeitet, den modernen Begriff „Switch“. Bei der Beschreibung der 802.1D- und Source Routing-Algorithmen selbst im nächsten Abschnitt werden wir das Gerät traditionell als Bridge bezeichnen, wie es in diesen Standards tatsächlich genannt wird.


42. Switches für lokale Netzwerke, Protokolle, Betriebsarten, Beispiele.
Jeder der 8 10Base-T-Ports wird von einem Ethernet Packet Processor (EPP) bedient. Darüber hinaus verfügt der Switch über ein Systemmodul, das die Arbeit aller EPP-Prozessoren koordiniert. Das Systemmodul verwaltet die allgemeine Adresstabelle des Switches und bietet die SNMP-Verwaltung des Switches. Um Frames zwischen Ports zu übertragen, wird eine Vermittlungsstruktur verwendet, ähnlich denen, die in Telefonvermittlungen oder Multiprozessorcomputern zu finden sind, und mehrere Prozessoren mit mehreren Speichermodulen verbindet.

Schaltmatrix funktioniert nach dem Prinzip der Schaltkanäle. Für 8 Ports kann die Matrix 8 gleichzeitige interne Kanäle im Halbduplex-Portbetrieb und 16 im Vollduplex-Betrieb bereitstellen, wenn Sender und Empfänger jedes Ports unabhängig voneinander arbeiten.

Wenn ein Frame an einem Port ankommt, puffert der EPP-Prozessor die ersten paar Bytes des Frames, um die Zieladresse zu lesen. Nach dem Empfang der Zieladresse entscheidet der Prozessor sofort, das Paket zu übertragen, ohne auf das Eintreffen der verbleibenden Bytes des Rahmens zu warten.

Wenn der Frame an einen anderen Port übertragen werden muss, wendet sich der Prozessor an das Koppelfeld und versucht darin einen Pfad aufzubauen, der seinen Port mit dem Port verbindet, über den die Route zur Zieladresse führt. Die Switching Fabric kann dies nur tun, wenn der Zielport zu diesem Zeitpunkt frei ist, dh nicht mit einem anderen Port verbunden ist; wenn der Port belegt ist, dann schlägt die Matrix wie bei jedem leitungsvermittelten Gerät die Verbindung fehl. In diesem Fall wird der Rahmen vom Eingangsportprozessor vollständig gepuffert, wonach der Prozessor auf die Freigabe des Ausgangsports wartet und die Koppelmatrix den gewünschten Pfad bildet. Sobald der gewünschte Pfad hergestellt ist, werden die gepufferten Rahmenbytes an es, die vom Ausgangsportprozessor empfangen werden. Sobald der nachgeschaltete Prozessor mit dem CSMA / CD-Algorithmus auf das angeschlossene Ethernet-Segment zugreift, werden die Frame-Bytes sofort ins Netzwerk übertragen. Das beschriebene Verfahren zum Übertragen eines Frames ohne seine vollständige Pufferung wird als „on-the-fly“- oder „cut-through“-Switching bezeichnet. Der Hauptgrund für die Verbesserung der Netzwerkleistung bei Verwendung eines Switches ist parallel Verarbeitung mehrerer Frames Dieser Effekt ist in Abb. 4.26. Die Abbildung zeigt eine ideale Situation in Bezug auf die Leistungssteigerung, wenn vier von acht Ports Daten mit einer maximalen Geschwindigkeit von 10 Mbit / s für das Ethernet-Protokoll übertragen und diese Daten konfliktfrei an die anderen vier Ports des Switches übertragen - Datenflüsse zwischen Netzwerkknoten werden so verteilt, dass jeder Frame-Empfangsport seinen eigenen Ausgangsport hat. Wenn es dem Switch gelingt, den Eingangsverkehr selbst bei der maximalen Rate eingehender Frames an den Eingangsports zu verarbeiten, beträgt die Gesamtleistung des Switches im gegebenen Beispiel 4x10 = 40 Mbit/s, und bei Verallgemeinerung des Beispiels für N Ports - (N / 2) x10 Mbit/s. Man sagt, dass der Switch jede an seinen Ports angeschlossene Station oder jedes Segment mit eigener Protokollbandbreite versorgt.Natürlich entwickelt sich die Situation im Netzwerk nicht immer wie in Abb. 4.26. Wenn zwei Stationen, zum Beispiel Stationen, die an Ports angeschlossen sind 3 und 4, gleichzeitig müssen Sie Daten auf denselben Server schreiben, der mit dem Port verbunden ist 8, dann kann der Switch nicht jeder Station einen 10 Mbit/s Datenstrom zuordnen, da Port 5 keine Daten mit 20 Mbit/s übertragen kann. Stationsframes warten in internen Warteschlangen von Eingangsports 3 und 4, wenn der Hafen frei wird 8 um den nächsten Frame zu senden. Eine gute Lösung für eine solche Verteilung von Datenströmen wäre natürlich die Verbindung des Servers mit einem schnelleren Port, beispielsweise Fast Ethernet, da der Hauptvorteil des Switches, dank dem er eine sehr gute Position im lokalen Netzwerke, ist seine hohe Leistung, die Entwickler von Switches versuchen, es auf diese Weise zu veröffentlichen nicht blockierend Modelle wechseln.


43. Algorithmus der transparenten Brücke.
Transparente Bridges sind für die Netzwerkadapter von Endknoten unsichtbar, da sie selbstständig eine spezielle Adresstabelle aufbauen, anhand derer Sie entscheiden können, ob Sie den eingehenden Frame in ein anderes Segment übertragen müssen oder nicht. Wenn transparente Bridges verwendet werden, funktionieren Netzwerkadapter genauso wie ohne sie, d. h. sie unternehmen keine zusätzlichen Schritte, um den Frame durch die Bridge zu bringen. Der transparente Bridging-Algorithmus ist unabhängig von der LAN-Technologie, in der die Bridge installiert wird, daher funktionieren transparente Ethernet-Bridges genauso wie transparente FDDI-Bridges.

Eine transparente Bridge baut ihre Adresstabelle auf der Grundlage der passiven Überwachung des Datenverkehrs auf, der in Segmenten zirkuliert, die mit ihren Ports verbunden sind. Dabei berücksichtigt die Bridge die Adressen der Quellen der an den Bridge-Ports ankommenden Datenrahmen. Anhand der Frame-Quelladresse schließt die Bridge, dass dieser Knoten zu dem einen oder anderen Netzwerksegment gehört.

Betrachten Sie den Prozess der automatischen Erstellung einer Bridge-Adresstabelle und deren Verwendung am Beispiel eines einfachen Netzwerks, das in Abb. 4.18.

Reis. 4.18. So funktioniert eine transparente Brücke

Die Bridge verbindet zwei logische Segmente. Segment 1 besteht aus Computern, die mit einem Stück Koaxialkabel an Port 1 der Bridge angeschlossen sind, und Segment 2 besteht aus Computern, die mit einem anderen Stück Koaxialkabel an Port 2 der Bridge angeschlossen sind.

Jeder Bridge-Port fungiert als Endpunkt in seinem Segment mit einer Ausnahme – ein Bridge-Port hat keine eigene MAC-Adresse. Der Hafen der Brücke arbeitet im sogenannten promisquoise Paketerfassungsmodus, wenn alle am Port ankommenden Pakete im Pufferspeicher gespeichert werden. In diesem Modus überwacht die Bridge den gesamten Verkehr, der in den ihr zugeordneten Segmenten übertragen wird, und verwendet die sie durchlaufenden Pakete, um die Zusammensetzung des Netzwerks zu untersuchen. Da alle Pakete in den Puffer geschrieben werden, benötigt die Bridge keine Portadresse.

Im Ausgangszustand weiß die Bridge nichts über die Rechner, mit denen MAC-Adressen an jedem ihrer Ports angeschlossen sind. Daher überträgt die Bridge in diesem Fall einfach jeden erfassten und gepufferten Frame an allen ihren Ports, mit Ausnahme desjenigen, von dem dieser Frame empfangen wurde. In unserem Beispiel hat die Bridge nur zwei Ports, überträgt also Frames von Port 1 zu Port 2 und umgekehrt. Wenn eine Bridge im Begriff ist, einen Frame von Segment zu Segment zu übertragen, beispielsweise von Segment 1 zu Segment 2, versucht sie erneut, als Endknoten nach den Regeln des Zugriffsalgorithmus auf Segment 2 zuzugreifen, in diesem Beispiel nach dem Regeln des CSMA / CD-Algorithmus.

Gleichzeitig mit der Übertragung des Frames an alle Ports lernt die Bridge die Quelladresse des Frames und macht einen neuen Eintrag über seine Zugehörigkeit in ihrer Adresstabelle, die auch Filter- oder Routingtabelle genannt wird.

Nachdem die Brücke die Lernphase bestanden hat, kann sie effizienter arbeiten. Beim Empfang eines Frames, der beispielsweise von Computer 1 an Computer 3 gerichtet ist, scannt sie die Adresstabelle auf Übereinstimmung seiner Adressen mit der Zieladresse 3. Da es einen solchen Eintrag gibt, führt die Bridge die zweite Stufe der Tabellenanalyse durch - es prüft, ob sich Rechner mit Quelladressen (in unserem Fall Adresse 1) und der Zieladresse (Adresse 3) in einem Segment befinden. Da sie sich in unserem Beispiel in unterschiedlichen Segmenten befinden, führt die Brücke die Operation durch Weiterleitung Frame - sendet einen Frame an einen anderen Port, nachdem er zuvor Zugriff auf ein anderes Segment erhalten hat.

Wenn die Zieladresse unbekannt ist, überträgt die Bridge den Frame an alle ihre Ports, mit Ausnahme des Ports – der Quelle des Frames, wie in der Anfangsphase des Lernprozesses.


44. Bridges mit Routing von der Quelle.
Source-routed Bridging wird verwendet, um Token-Ring- und FDDI-Ringe zu verbinden, obwohl für denselben Zweck auch transparentes Bridging verwendet werden kann. Source Routing (SR) basiert auf der Tatsache, dass die sendende Station in einem an einen anderen Ring gesendeten Rahmen alle Adressinformationen über Zwischenbrücken und Ringe, die der Rahmen passieren muss, bevor er in den Ring, mit dem die Station verbunden ist, eintritt, einfügt.

Betrachten wir die Funktionsprinzipien von Source Routing Bridges (im Folgenden SR-Bridges) am Beispiel des in Abb. 4.21. Das Netzwerk besteht aus drei Ringen, die durch drei Brücken verbunden sind. Ringe und Brücken haben Kennungen, um die Route zu definieren. SR-Bridges bauen keine Adresstabelle auf, sondern verwenden beim Vorrücken von Frames die Informationen, die in den entsprechenden Feldern des Datenframes verfügbar sind.

Feige. 4.21.Quell-Routing-Bridges

Beim Empfang jedes Pakets muss die SR-Brücke nur das Routing-Informationsfeld (RIF, in einem Token Ring oder FDDI-Rahmen) nach ihrer eigenen Kennung durchsuchen. Und wenn es dort vorhanden ist und von der Kennung des Rings begleitet wird, der mit dieser Bridge verbunden ist, dann kopiert die Bridge in diesem Fall den ankommenden Frame in den angegebenen Ring. Andernfalls wird der Rahmen nicht in den anderen Ring kopiert. In jedem Fall wird die Originalkopie des Rahmens über den Originalring der sendenden Station zurückgesendet, und wenn sie an einen anderen Ring übertragen wurde, dann sind die Bits A (Adresse erkannt) und C (Rahmen kopiert) der Rahmenstatusfelder auf 1 setzen, um die Sendestation darüber zu informieren, dass der Frame von der Zielstation empfangen wurde (in diesem Fall wurde er von der Bridge an einen anderen Ring übertragen).

Da Routing-Informationen in einem Frame nicht immer benötigt werden, sondern nur für die Frame-Übertragung zwischen Stationen, die an verschiedene Ringe angeschlossen sind, wird das Vorhandensein des RIF-Feldes im Frame durch Setzen der Einzel-/Gruppenadresse (I/G) auf 1 Bit angezeigt ( in diesem Fall wird dieses Bit nicht wie vorgesehen verwendet, da die Quelladresse immer individuell ist).

Das RIF hat ein dreiteiliges Kontrollunterfeld.

  • Rahmentyp definiert den Typ des RIF-Feldes. Es gibt verschiedene Arten von RIF-Feldern, die verwendet werden, um eine Route zu finden und einen Frame entlang einer bekannten Route zu senden.
  • Feld für die maximale Framelänge Wird von der Bridge verwendet, um Ringe mit einem anderen MTU-Wert zu verbinden. Unter Verwendung dieses Feldes benachrichtigt die Bridge die Station über die maximal mögliche Rahmenlänge (d. h. den minimalen MTU-Wert entlang der gesamten mehrteiligen Route).
  • RIF-Feldlänge ist notwendig, da die Anzahl der Routendeskriptoren, die die Kennungen der gekreuzten Ringe und Brücken spezifizieren, im Voraus unbekannt ist.

Damit der Source-Routing-Algorithmus funktioniert, werden zwei zusätzliche Frame-Typen verwendet – ein Single-Route-Broadcast-Frame (SRBF) und ein All-Route-Broadcast-Frame (ARBF).

Alle SR-Bridges müssen vom Administrator manuell konfiguriert werden, um ARBF-Frames an alle Ports mit Ausnahme des Quellports des Frames zu senden, und für SRBF-Frames müssen einige Bridge-Ports blockiert werden, damit es keine Schleifen im Netzwerk gibt.

Vor- und Nachteile von Source Routing Bridges

45. Schalter: technische Umsetzung, Funktionen, Eigenschaften, die ihre Arbeit beeinflussen.
Merkmale der technischen Implementierung von Schaltern. Viele Switches der ersten Generation waren Routern ähnlich, dh sie basierten auf einer universellen Zentraleinheit, die über einen internen Hochgeschwindigkeitsbus mit den Schnittstellenports verbunden war. Der Hauptnachteil dieser Schalter war ihre geringe Geschwindigkeit. Der Universalprozessor konnte das große Volumen spezialisierter Operationen zum Übertragen von Rahmen zwischen Schnittstellenmodulen in keiner Weise bewältigen. Zusätzlich zu den Prozessorchips für einen erfolgreichen blockierungsfreien Betrieb benötigt der Switch auch einen Hochgeschwindigkeitsknoten, um Frames zwischen den Portprozessorchips zu übertragen. Derzeit verwenden Switches eines von drei Schemata als Basis, auf der ein solcher Austauschknoten aufgebaut ist:

  • Schaltmatrix;
  • gemeinsamer Multi-Input-Speicher;
  • gemeinsamen Bus.

Heutzutage ist es fast unmöglich, einen Laptop oder ein Motherboard ohne eine oder sogar zwei integrierte Netzwerkkarten zu finden. Alle haben einen Anschluss - RJ45 (genauer gesagt 8P8C), aber die Geschwindigkeit des Controllers kann sich um eine Größenordnung unterscheiden. Bei günstigen Modellen sind es 100 Megabit pro Sekunde (Fast Ethernet), bei teureren - 1000 (Gigabit Ethernet).

Wenn Ihr Computer keinen eingebauten LAN-Controller hat, dann handelt es sich höchstwahrscheinlich bereits um einen "alten Mann" auf Basis eines Intel Pentium 4 oder AMD Athlon XP Prozessors sowie deren "Vorfahren". Solche "Dinosaurier" können nur durch den Einbau einer diskreten Netzwerkkarte mit PCI-Steckplatz mit einem kabelgebundenen Netzwerk "angefreundet" werden, da PCI-Express-Busse zum Zeitpunkt ihrer Geburt noch nicht existierten. Aber auch für den PCI-Bus (33 MHz) werden Netzwerkkarten produziert, die den aktuellsten Gigabit-Ethernet-Standard unterstützen, dessen Bandbreite aber möglicherweise nicht ausreicht, um das Highspeed-Potenzial eines Gigabit-Controllers voll auszuschöpfen.

Aber selbst im Fall einer integrierten 100-Megabit-Netzwerkkarte müssen diejenigen, die auf 1000 Megabit "aufrüsten", einen separaten Adapter kaufen. Die beste Option wäre, einen PCI-Express-Controller zu kaufen, der die maximale Netzwerkgeschwindigkeit bereitstellt, wenn natürlich der entsprechende Anschluss im Computer vorhanden ist. Es stimmt, viele werden einer PCI-Karte den Vorzug geben, da sie viel billiger ist (die Kosten beginnen buchstäblich bei 200 Rubel).

Was sind die praktischen Vorteile des Umstiegs von Fast Ethernet auf Gigabit Ethernet? Wie unterschiedlich ist die tatsächliche Datenübertragungsrate von PCI-Versionen von Netzwerkkarten und PCI Express? Wird die Geschwindigkeit einer herkömmlichen Festplatte ausreichen, um einen Gigabit-Kanal vollständig zu laden? Die Antworten auf diese Fragen finden Sie in diesem Material.

Testteilnehmer

Drei der günstigsten diskreten Netzwerkkarten (PCI - Fast Ethernet, PCI - Gigabit Ethernet, PCI Express - Gigabit Ethernet) wurden zum Testen ausgewählt, da sie am stärksten nachgefragt werden.

Die 100-Mbit/s-PCI-Netzwerkkarte wird durch das Modell Acorp L-100S (der Preis beginnt bei 110 Rubel) repräsentiert, das den Realtek RTL8139D-Chipsatz verwendet, den beliebtesten für billige Karten.

Die 1000-MBit/s-PCI-Netzwerkkarte wird durch das Modell Acorp L-1000S repräsentiert (der Preis beginnt bei 210 Rubel), das auf dem Realtek RTL8169SC-Chip basiert. Dies ist die einzige Karte mit einem Kühlkörper auf dem Chipsatz - der Rest der Testteilnehmer benötigt keine zusätzliche Kühlung.

Die 1000-Mbit/s-PCI-Express-Netzwerkkarte wird durch das Modell TP-LINK TG-3468 repräsentiert (der Preis beginnt bei 340 Rubel). Und das war keine Ausnahme - es basiert auf dem RTL8168B-Chipsatz, der ebenfalls von Realtek produziert wird.

Das Aussehen der Netzwerkkarte

Chipsätze dieser Familien (RTL8139, RTL816X) sind nicht nur auf diskreten Netzwerkkarten zu sehen, sondern auch auf vielen Mainboards integriert.

Die Eigenschaften aller drei Controller sind in der folgenden Tabelle aufgeführt:

Tabelle anzeigen

Die Bandbreite des PCI-Busses (1066 Mbit/s) sollte theoretisch ausreichen, um Gigabit-Netzwerkkarten auf volle Geschwindigkeit zu „schwingen“, in der Praxis kann es aber noch nicht reichen. Der Punkt ist, dass dieser "Kanal" von allen PCI-Geräten geteilt wird; außerdem übermittelt es Serviceinformationen zur Wartung des Busses selbst. Mal sehen, ob diese Annahme durch reale Geschwindigkeitsmessungen bestätigt wird.

Noch eine Nuance: Die überwältigende Mehrheit moderner Festplatten hat eine durchschnittliche Lesegeschwindigkeit von nicht mehr als 100 Megabyte pro Sekunde, oft sogar weniger. Dementsprechend werden sie nicht in der Lage sein, den Gigabit-Kanal der Netzwerkkarte voll auszulasten, deren Geschwindigkeit 125 Megabyte pro Sekunde beträgt (1000: 8 = 125). Es gibt zwei Möglichkeiten, diese Einschränkung zu umgehen. Die erste besteht darin, ein Paar solcher Festplatten zu einem RAID-Array (RAID 0, Striping) zusammenzufassen, wobei sich die Geschwindigkeit fast verdoppeln kann. Der zweite ist die Verwendung von SSD-Laufwerken, deren Geschwindigkeitsparameter merklich höher sind als die von Festplatten.

Testen

Als Server wurde ein Rechner mit folgender Konfiguration verwendet:

  • Prozessor: AMD Phenom II X4 955 3200 MHz (Quad-Core);
  • Mainboard: ASRock A770DE AM2+ (AMD 770 + AMD SB700 Chipsatz);
  • Arbeitsspeicher: Hynix DDR2 4 x 2048 GB PC2 8500 1066 MHz (im Dual-Channel-Modus);
  • Grafikkarte: AMD Radeon HD 4890 1024 MB DDR5 PCI Express 2.0;
  • Netzwerkkarte: Realtek RTL8111DL 1000 Mbit/s (integriert auf dem Motherboard);
  • Betriebssystem: Microsoft Windows 7 Home Premium SP1 (64-Bit-Version).

Als Client wurde ein Rechner mit folgender Konfiguration verwendet, in den die getesteten Netzwerkkarten eingebaut wurden:

  • Prozessor: AMD Athlon 7850 2800 MHz (Dual-Core);
  • Motherboard: MSI K9A2GM V2 (MS-7302, AMD RS780 + AMD SB700 Chipsatz);
  • Arbeitsspeicher: Hynix DDR2 2 x 2048 GB PC2 8500 1066 MHz (im Dual-Channel-Modus);
  • Grafikkarte: AMD Radeon HD 3100 256 MB (im Chipsatz integriert);
  • Festplatte: Seagate 7200.10 160 GB SATA2;
  • Betriebssystem: Microsoft Windows XP Home SP3 (32-Bit-Version).

Die Tests wurden in zwei Modi durchgeführt: Lesen und Schreiben über eine Netzwerkverbindung von Festplatten (dies sollte zeigen, dass sie ein Flaschenhals sein können) sowie von RAM-Disks im Arbeitsspeicher von Computern, die schnelle SSD-Laufwerke imitieren. Die Netzwerkkarten wurden über ein drei Meter langes Patchkabel (achtadriges Twisted Pair, Kategorie 5e) direkt angeschlossen.

Datenübertragungsrate (Festplatte - Festplatte, Mbit/s)

Die reale Datenübertragungsgeschwindigkeit durch die 100 Megabit Acorp L-100S Netzwerkkarte erreichte nicht ganz das theoretische Maximum. Obwohl beide Gigabit-Karten die erste um das Sechsfache übertrafen, zeigten sie nicht die maximal mögliche Geschwindigkeit. Es ist deutlich zu erkennen, dass die Geschwindigkeit auf der Leistung von Seagate 7200.10-Festplatten "ruhte", die im direkten Test auf einem Computer durchschnittlich 79 Megabyte pro Sekunde (632 Mbps) beträgt.

Zwischen Netzwerkkarten für PCI-Bus (Acorp L-1000S) und PCI-Express (TP-LINK) gibt es in diesem Fall keinen grundsätzlichen Geschwindigkeitsunterschied, der unbedeutende Vorteil der letzteren lässt sich mit dem Messfehler erklären. Beide Controller arbeiteten mit etwa sechzig Prozent ihrer Kapazität.

Datenübertragungsrate (RAM-Disk - RAM-Disk, Mbit/s)

Acorp L-100S zeigte erwartungsgemäß die gleiche niedrige Geschwindigkeit beim Kopieren von Daten von Hochgeschwindigkeits-RAM-Disks. Das ist verständlich – der Fast-Ethernet-Standard entspricht noch lange nicht den modernen Realitäten. Im Vergleich zum Testmodus "Festplatte-Festplatte" hat die Acorp L-1000S Gigabit PCI Karte eine spürbare Leistungssteigerung erzielt - der Vorsprung lag bei rund 36 Prozent. Einen noch beeindruckenderen Vorsprung zeigte die Netzwerkkarte TP-LINK TG-3468 – ein Plus von rund 55 Prozent.

Hier zeigte sich der höhere Durchsatz des PCI-Express-Busses – er übertraf den Acorp L-1000S um 14 Prozent, was nicht mehr auf einen Fehler zurückzuführen ist. Der Gewinner verfehlte das theoretische Maximum etwas, aber die Geschwindigkeit von 916 Megabit pro Sekunde (114,5 Mb / s) sieht immer noch beeindruckend aus - das bedeutet, dass Sie fast eine Größenordnung weniger warten müssen, bis der Kopiervorgang abgeschlossen ist (im Vergleich zu Fast-Ethernet). Zum Beispiel dauert das Kopieren einer 25-GB-Datei (typischer HD-Rip mit guter Qualität) von Computer zu Computer weniger als vier Minuten, und mit dem Adapter der vorherigen Generation dauert es mehr als eine halbe Stunde.

Tests haben gezeigt, dass Gigabit-Ethernet-Netzwerkkarten einen enormen Vorteil (bis zum Zehnfachen) gegenüber Fast-Ethernet-Controllern haben. Wenn Ihre Computer nur über Festplatten verfügen, die nicht zu einem Striping-Array (RAID 0) zusammengefasst sind, besteht kein grundlegender Geschwindigkeitsunterschied zwischen PCI- und PCI-Express-Karten. Ansonsten sowie beim Einsatz produktiver SSD-Laufwerke sollte man Karten mit PCI-Express-Schnittstelle den Vorzug geben, die eine möglichst hohe Datenübertragungsgeschwindigkeit bieten.

Natürlich ist zu beachten, dass andere Geräte im Netzwerk-"Pfad" (Switch, Router ...) den Gigabit-Ethernet-Standard unterstützen müssen und die Twisted Pair (Patchkabel)-Kategorie mindestens 5e sein muss. Andernfalls bleibt die tatsächliche Geschwindigkeit auf dem Niveau von 100 Megabit pro Sekunde. Die Abwärtskompatibilität zum Fast-Ethernet-Standard bleibt übrigens bestehen: Sie können beispielsweise einen Laptop mit einer 100-Megabit-Netzwerkkarte an ein Gigabit-Netzwerk anschließen, die Geschwindigkeit anderer Computer im Netzwerk wird dadurch nicht beeinträchtigt.



In Verbindung stehende Artikel: