Tuesday 7 November 2017

Td Gleitender Durchschnitt 1


Toronto-Dominion Bank Alle Märkte Daten auf FT unterliegt den FT Bedingungen Bedingungen Alle Inhalte auf FT ist für Ihre allgemeinen Informationen und verwenden Sie nur und ist nicht für Ihre speziellen Anforderungen Adresse. Insbesondere stellt der Inhalt keine Form von Beratung, Empfehlung, Vertretung, Anerkennung oder Vereinbarung durch FT dar und ist nicht dazu bestimmt, von den Nutzern behauptet zu werden, dass sie spezifische Investitions - oder andere Entscheidungen treffen (oder verzichten). Alle Informationen, die Sie über FT erhalten, sind am besten verzögert Intraday-Daten und nicht Echtzeit. Aktie Kursinformationen können gerundet aktualisiert werden und daher nicht ganz richtig. FT ist nicht verantwortlich für jegliche Verwendung von Inhalten von Ihnen außerhalb ihres Anwendungsbereichs, wie in den FT-Bedingungen festgelegt. Willkommen bei der neuen FTCisco IOS Quality-of-Service-Lösung Konfigurationsleitfaden, Version 12.2 Congestion Avoidance Überblick Congestion-Vermeidungstechniken überwachen Netzwerkverkehrslasten, um Staus bei allfälligen Netzwerkengpässen zu antizipieren und zu vermeiden. Die Stauvermeidung wird durch Packet Drop erreicht. Zu den häufigeren Vermeidungsmechanismen für die Überlastung gehört die Random Early Detection (RED), die für Hochgeschwindigkeits-Transitnetze optimal ist. Cisco IOS QoS enthält eine Implementierung von RED, die, wenn konfiguriert, steuert, wenn der Router Pakete ablegt. Wenn Sie keine Weighted Random Early Detection (WRED) konfigurieren, verwendet der Router den groben Default-Paket-Drop-Mechanismus namens tail drop. Eine Erläuterung zur Netzwerküberlastung finden Sie im Kapitel "Quality of Service Overview. quot" Dieses Kapitel enthält eine kurze Beschreibung der Arten von Mechanismen zur Überlastvermeidung, die von den Cisco IOS QoS-Funktionen bereitgestellt werden. Es diskutiert die folgenden Merkmale: Schwanz fallen. Dies ist das Standardverstopfungsvermeidungsverhalten, wenn WRED nicht konfiguriert ist. WRED. WRED und verteilten WRED (DWRED), die beide die Cisco-Implementierungen von REDcombine die Fähigkeiten des RED-Algorithmus mit der IP Precedence-Funktion sind. In dem Abschnitt über WRED werden die folgenden verwandten Merkmale diskutiert: Durchflussbasierte WRED. Durchflussbasierte WRED erweitert WRED, um eine größere Fairness für alle Flüsse auf einer Schnittstelle in Bezug darauf zu bieten, wie Pakete fallengelassen werden. DiffServ konform WRED. DiffServ kompatibel WRED erweitert WRED um differenzierte Dienste (DiffServ) und Assured Forwarding (AF) pro Hopverhalten (PHB) zu unterstützen. Dieses Merkmal ermöglicht es den Kunden, AF-PHB durch Färben von Paketen gemäß differenzierten Dienstcode-Punkt-Werten (DSCP-Werten) zu implementieren, und dann Zuordnen von bevorzugten Tropfenwahrscheinlichkeiten zu diesen Paketen. Informationen zum Konfigurieren von WRED-, DWRED-, flowbasierten WRED - und DiffServ-kompatiblen WRED finden Sie im Kapitel "Konfigurieren von gewichteten Random Early Detectionquot "in diesem Buch. Tail Drop behandelt alle Verkehr gleichermaßen und unterscheidet nicht zwischen den Klassen des Dienstes. Warteschlangen füllen während Perioden der Überlastung. Wenn die Ausgangswarteschlange voll ist und der Schwanzabfall wirksam ist, werden die Pakete fallengelassen, bis die Überlastung beseitigt ist und die Warteschlange nicht mehr voll ist. Weighted Random Early Detection Dieser Abschnitt enthält eine kurze Einführung in RED-Konzepte und Adressen WRED, die Cisco-Implementierung von RED für Standard-Cisco-IOS-Plattformen. WRED vermeidet die Globalisierungsprobleme, die auftreten, wenn Schwanzabfall als Überlastungsmechanismus auf dem Router verwendet wird. Globale Synchronisation tritt als Wellen des Staukammes auf, denen nur Täler folgen, während denen die Übertragungsstrecke nicht vollständig genutzt wird. Globale Synchronisierung von TCP-Hosts kann beispielsweise auftreten, weil Pakete auf einmal gelöscht werden. Globale Synchronisation manifestiert sich, wenn mehrere TCP-Hosts ihre Übertragungsraten reduzieren, wenn das Paket fallengelassen wird, und erhöhen Sie dann ihre Übertragungsraten noch einmal, wenn die Überlastung reduziert wird. Über random Früherkennung Der RED-Mechanismus wurde von Sally Floyd und Van Jacobson in den frühen 1990er Jahren vorgeschlagen, um Netzwerk Staus in einer reaktionsfreudigen statt reaktive Weise zu adressieren. Der Grundgedanke des RED-Mechanismus ist die Prämisse, dass der meiste Verkehr auf Datentransportimplementierungen läuft, die empfindlich auf Verlust sind und vorübergehend verlangsamen, wenn etwas von ihrem Verkehr fallen gelassen wird. TCP, das durch Verlangsamung seiner Verkehrsübertragung in geeigneter Weise robust auf den Verkehrsabfall anspricht, ermöglicht effektiv das Verkehrstüchtigkeitsverhalten von RED als Mechanismus zur Überlastungsvermeidung. TCP ist der am stärksten verwendete Netzwerktransport. Angesichts der allgegenwärtigen Präsenz von TCP bietet RED einen weitverbreiteten, effektiven Mechanismus zur Vermeidung von Staus. Bei der Berücksichtigung der Nützlichkeit von RED, wenn robuste Transporte wie TCP sind allgegenwärtig, ist es wichtig, auch die ernst negativen Auswirkungen der Verwendung von RED, wenn ein erheblicher Prozentsatz des Verkehrs ist nicht robust in Reaktion auf Paketverlust zu berücksichtigen. Weder Novell NetWare noch AppleTalk sind als Antwort auf den Paketverlust angemessen robust, daher sollten Sie RED nicht für sie verwenden. Wie es funktioniert RED zielt darauf ab, die durchschnittliche Warteschlangengröße zu kontrollieren, indem es den End-Hosts angibt, wann sie die Übertragung von Paketen vorübergehend verlangsamen sollten. RED nutzt den Überlastungsmechanismus von TCP. Durch zufälliges Löschen von Paketen vor Perioden mit hoher Überlastung weist RED der Paketquelle an, ihre Übertragungsrate zu verringern. Unter der Annahme, dass die Paketquelle TCP verwendet, verringert sie ihre Übertragungsrate, bis alle Pakete ihr Ziel erreichen, was anzeigt, dass die Überlastung gelöscht wird. Sie können ROT als eine Möglichkeit verwenden, um zu bewirken, dass TCP die Übertragung von Paketen verlangsamt. TCP pausiert nicht nur, sondern es wird auch schnell neu gestartet und passt seine Übertragungsrate an die Geschwindigkeit an, die das Netzwerk unterstützen kann. RED verteilt Verluste in der Zeit und behält normalerweise niedrige Warteschlangen-Tiefe bei und absorbiert Spikes. Wenn auf einer Schnittstelle aktiviert, beginnt ROT, Pakete zu löschen, wenn Staus mit einer Rate auftritt, die Sie während der Konfiguration auswählen. Eine Erläuterung darüber, wie die Cisco WRED-Implementierung Parameter bestimmt, die in den WRED-Warteschlangengrößenberechnungen verwendet werden sollen und wie Sie optimale Werte für den Gewichtungsfaktor festlegen, finden Sie im Abschnitt " Packet Drop-Wahrscheinlichkeit Die Paketwahrscheinlichkeit basiert auf dem minimalen Schwellwert, dem maximalen Schwellenwert und dem Markierungswahrscheinlichkeits-Nenner. Wenn die durchschnittliche Warteschlangen-Tiefe oberhalb der minimalen Schwelle liegt, beginnt RED, Pakete zu löschen. Die Rate des Paketabfalls nimmt linear zu, wenn die durchschnittliche Warteschlangengröße zunimmt, bis die durchschnittliche Warteschlangengrße den maximalen Schwellenwert erreicht. Der Markierungswahrscheinlichkeits-Nenner ist der Bruchteil der Pakete, die fallengelassen werden, wenn die mittlere Warteschlangentiefe den maximalen Schwellenwert aufweist. Wenn beispielsweise der Nenner 512 ist, wird eines von 512 Paketen gelöscht, wenn die mittlere Warteschlange die maximale Schwelle hat. Wenn die durchschnittliche Warteschlangengröße oberhalb der maximalen Schwelle liegt, werden alle Pakete gelöscht. Fig. 9 faßt die Wahrscheinlichkeit des Paketabfalls zusammen. Abbildung 9 RED-Paket-Drop-Wahrscheinlichkeit Der minimale Schwellenwert sollte hoch genug eingestellt sein, um die Link-Auslastung zu maximieren. Wenn die minimale Schwelle zu niedrig ist, können Pakete unnötig fallengelassen werden und die Übertragungsstrecke wird nicht vollständig verwendet. Die Differenz zwischen dem maximalen Schwellenwert und dem minimalen Schwellenwert sollte groß genug sein, um eine globale Synchronisierung von TCP-Hosts zu vermeiden (globale Synchronisation von TCP-Hosts kann auftreten, wenn mehrere TCP-Hosts ihre Übertragungsraten reduzieren). Wenn die Differenz zwischen den maximalen und minimalen Schwellenwerten zu klein ist, können viele Pakete gleichzeitig gelöscht werden, was zu einer globalen Synchronisation führt. Wie TCP Handles Traffic Loss Hinweis Die Abschnitte "Wie TCP Handles Traffic Lossquot und quotHow der Router Interagiert mit TCPquot enthalten detaillierte Informationen, die Sie nicht lesen müssen, um WRED verwenden oder haben einen allgemeinen Sinn für die Fähigkeiten von RED. Wenn Sie verstehen möchten, warum Probleme der globalen Synchronisation in Reaktion auf Überlastung auftreten, wenn Schwanzabfall standardmäßig verwendet wird und wie RED diese adressiert, lesen Sie diese Abschnitte. Wenn der Empfänger des TCP-Verkehrs, der den Empfänger empfängt, ein Datensegment empfängt, überprüft es die vier Oktett - (32-Bit-) Sequenznummer dieses Segments gegen die erwartete Anzahl des Empfängers, was anzeigt, daß das Datensegment nacheinander empfangen wurde. Wenn die Zahlen übereinstimmen, liefert der Empfänger alle Daten, die er für die Zielanwendung hält, dann aktualisiert er die Sequenznummer, um die nächste Zahl in der Reihenfolge wiederzugeben, und schließlich sendet er entweder sofort ein Bestätigungs-Paket (ACK) an den Absender oder Plant er ein ACK, das nach einer kurzen Verzögerung an den Absender gesendet werden soll. Das ACK benachrichtigt den Absender, dass der Empfänger alle Datensegmente bis zu, aber nicht einschließlich der mit der neuen Sequenznummer markierten empfangen hat. Receiver versuchen in der Regel, ein ACK als Antwort auf die alternierenden Datensegmente zu senden, die sie erhalten, senden sie das ACK, weil für viele Anwendungen, wenn der Empfänger eine kleine Verzögerung wartet, kann es effizient enthalten seine Antwortquittung auf eine normale Antwort auf den Absender. Wenn jedoch der Empfänger ein Datensegment außerhalb der Ordnung empfängt, reagiert es sofort mit einem ACK, um den Sender zu leiten, um das verlorene Datensegment erneut zu senden. Wenn der Absender ein ACK empfängt, macht er diese Bestimmung: Er bestimmt, ob irgendwelche Daten ausstehend sind. Wenn keine Daten vorhanden sind, bestimmt der Absender, dass das ACK ein Keepalive ist, um die Zeile aktiv zu halten, und es tut nichts. Wenn Daten ausstehen, bestimmt der Sender, ob der ACK anzeigt, dass der Empfänger einige oder keine Daten empfangen hat. Wenn der ACK den Empfang einiger gesendeter Daten anzeigt, bestimmt der Absender, ob neue Gutschriften erteilt wurden, damit er mehr Daten senden kann. Wenn der ACK den Empfang von keiner der gesendeten Daten anzeigt, und es sich um ausstehende Daten handelt, interpretiert der Sender das ACK als ein wiederholt gesendetes ACK. Diese Bedingung zeigt an, daß einige Daten außer Betrieb waren, was den Empfänger zwang, das erste ACK zu übergeben, und daß ein zweites Datensegment außer Betrieb gesetzt wurde, was den Empfänger zwang, das zweite ACK zu übergeben. In den meisten Fällen empfängt der Empfänger zwei Segmente außer Betrieb, weil eines der Datensegmente fallen gelassen worden ist. Wenn ein TCP-Sender ein gelöschtes Datensegment erkennt, sendet er das Segment erneut. Dann passt es seine Übertragungsrate auf die Hälfte von dem, was war, bevor der Tropfen erkannt wurde. Dies ist das TCP-Backoff - oder Abbremsverhalten. Obwohl dieses Verhalten angemessen auf Überlastung reagiert, können Probleme auftreten, wenn mehrere TCP-Sitzungen gleichzeitig mit demselben Router durchgeführt werden und alle TCP-Absender die Übertragung von Paketen zur gleichen Zeit verlangsamen. Wie der Router mit TCP interagiert Hinweis In den Abschnitten "How TCP Handles Traffic Lossquot und quotHow der Router Interagiert mit TCPquot enthalten detaillierte Informationen, die Sie nicht lesen müssen, um WRED verwenden oder einen allgemeinen Sinn für die Fähigkeiten von RED haben. Wenn Sie verstehen möchten, warum Probleme der globalen Synchronisation in Reaktion auf Überlastung auftreten, wenn Schwanzabfall standardmäßig verwendet wird und wie RED sie adressiert, lesen Sie diese Abschnitte. Um zu sehen, wie der Router mit TCP interagiert, betrachten wir ein Beispiel. In diesem Beispiel empfängt der Router durchschnittlich den Verkehr von einem bestimmten TCP-Strom zu jeder anderen, jede 10. und jede 100. oder 200. Nachricht in der Schnittstelle in MAE-EAST oder FIX-WEST. Ein Router kann mehrere gleichzeitige TCP-Sitzungen verarbeiten. Da Netzwerkströme additiv sind, besteht eine hohe Wahrscheinlichkeit, dass, wenn der Traffic die Sende-Warteschlangengrenze (TQL) überschreitet, die Grenze erheblich überschritten wird. Es gibt jedoch auch eine hohe Wahrscheinlichkeit, dass die übermäßige Verkehrstiefe temporär ist und dass der Verkehr nicht übermäßig tief bleibt, außer an den Punkten, an denen der Verkehr fließt oder an den Kantenroutern. Wenn der Router den gesamten Traffic, der die TQL übersteigt, abfällt, wie dies bei der Verwendung von Default-Drop geschieht, werden viele TCP-Sitzungen gleichzeitig in einen langsamen Start gehen. Folglich verlangsamt sich der Datenverkehr zeitweilig bis zum Extremum, und dann fließt alles langsam wieder. Diese Aktivität erzeugt einen Zustand der globalen Synchronisation. Wenn jedoch der Router keinen Verkehr absenkt, wie es der Fall ist, wenn Warteschlangenmerkmale wie faire Warteschlangen oder benutzerdefinierte Warteschlangen (CQ) verwendet werden, werden die Daten wahrscheinlich im Hauptspeicher gespeichert, wodurch die Routerleistung drastisch verschlechtert wird. Durch das Richten einer TCP-Sitzung zu einer Zeit, um langsamer zu werden, löst RED die beschriebenen Probleme, was die volle Ausnutzung der Bandbreite ermöglicht, anstatt die Nutzung als Kämme und Täler des Verkehrs zu manifestieren. Über WRED WRED kombiniert die Fähigkeiten des RED-Algorithmus mit der IP Precedence-Funktion, um eine bevorzugte Datenverkehrsbehandlung mit Paketen höherer Priorität zu ermöglichen. WRED kann selektiv Verkehr mit geringerer Priorität verwerfen, wenn die Schnittstelle anfängt, verstopft zu werden und differenzierte Leistungsmerkmale für verschiedene Dienstklassen bereitzustellen. Sie können WRED so konfigurieren, dass die IP-Priorität ignoriert wird, wenn Drop-Entscheidungen getroffen werden, damit das nicht gewichtete RED-Verhalten erreicht wird. Für Schnittstellen, die für die Verwendung der Resource Reservation Protocol (RSVP) - Funktion konfiguriert sind, wählt WRED Pakete von anderen Flüssen, um statt der RSVP-Flows zu fallen. Außerdem regelt IP Precedence, welche Pakete fallengelassen werden. Traffic, der eine niedrigere Priorität hat, hat eine höhere Drop-Rate und wird daher eher zurückgedreht. WRED unterscheidet sich von anderen Verfahren zur Vermeidung von Überlastungen, wie z. B. Warteschlangen-Strategien, weil es versucht, Staus zu antizipieren und zu vermeiden, anstatt die Stauung zu kontrollieren, sobald es auftritt. Warum WRED WRED macht eine frühe Erkennung von Staus möglich und bietet mehrere Klassen von Verkehr. Es schützt auch vor globaler Synchronisation. Aus diesen Gründen ist WRED auf jeder Ausgabeschnittstelle nützlich, von der erwartet wird, dass eine Überlastung eintritt. WRED wird jedoch gewöhnlich in den Kernroutern eines Netzwerks und nicht am Rand des Netzwerks verwendet. Edge Router weisen den Pakete beim Eingeben des Netzwerks IP-Prioritäten zu. WRED verwendet diese Vorgaben, um zu bestimmen, wie verschiedene Arten von Verkehr zu behandeln. WRED bietet separate Schwellenwerte und Gewichte für verschiedene IP-Prioritäten, so dass Sie verschiedene Qualitäten des Dienstes in Bezug auf Paket fallen für verschiedene Traffic-Typen bieten. Standard-Verkehr kann häufiger fallen als Premium-Verkehr in Zeiten der Staus. WRED ist auch RSVP-bewusst, und es kann die kontrollierte Last QoS Service von integrierten Service. Wie es funktioniert Durch das zufällige Löschen von Paketen vor Perioden hoher Überlastung, sagt WRED der Paketquelle, ihre Übertragungsrate zu verringern. Wenn die Paketquelle TCP verwendet, verringert sie ihre Übertragungsrate, bis alle Pakete ihr Ziel erreichen, was anzeigt, dass die Überlastung gelöscht wird. WRED fällt in der Regel Pakete selektiv auf IP-Priorität. Pakete mit einer höheren IP-Priorität werden weniger wahrscheinlich fallengelassen als Pakete mit einer niedrigeren Priorität. Je höher die Priorität eines Pakets ist, desto höher ist die Wahrscheinlichkeit, dass das Paket geliefert wird. WRED verringert die Chancen des Schwanzabfalls durch selektives Löschen von Paketen, wenn die Ausgabeschnittstelle beginnt, Anzeichen einer Überlastung zu zeigen. Durch das Löschen einiger Pakete früh, anstatt zu warten, bis die Warteschlange voll ist, vermeidet WRED das Fallen einer großen Anzahl von Paketen auf einmal und minimiert die Chancen der globalen Synchronisation. Somit ermöglicht WRED, dass die Übertragungsleitung zu jeder Zeit vollständig verwendet werden kann. Darüber hinaus fällt WRED statistisch mehr Pakete von großen Benutzern als kleine. Daher werden Verkehrsquellen, die den meisten Verkehr generieren, eher verlangsamt als Verkehrsquellen, die wenig Verkehr erzeugen. WRED vermeidet die Globalisierungsprobleme, die auftreten, wenn Schwanzabfall als Stauvermeidungsmechanismus verwendet wird. Globale Synchronisation manifestiert sich, wenn mehrere TCP-Hosts ihre Übertragungsraten in Reaktion auf das Fallenlassen von Paketen reduzieren und dann ihre Übertragungsraten nochmals erhöhen, wenn die Überlastung reduziert wird. WRED ist nur nützlich, wenn der Großteil des Verkehrs TCPIP-Verkehr ist. Mit TCP, fallengelassene Pakete anzeigen Überlastung, so dass die Paketquelle wird ihre Übertragungsrate zu reduzieren. Bei anderen Protokollen reagieren Paketquellen möglicherweise nicht oder können die übertragenen Pakete mit der gleichen Geschwindigkeit erneut senden. Somit verringert das Löschen von Paketen nicht die Überlastung. WRED behandelt Nicht-IP-Verkehr als Priorität 0, die niedrigste Priorität. Daher ist der Non-IP-Verkehr im Allgemeinen eher zu fallen gelassen als IP-Verkehr. Abbildung 10 zeigt, wie WRED arbeitet. Abbildung 10 Gewichtete Random Early Detection Average Queue Größe Der Router ermittelt automatisch Parameter, die in den WRED-Berechnungen verwendet werden sollen. Die durchschnittliche Warteschlangengröße basiert auf dem vorherigen Durchschnitt und der aktuellen Größe der Warteschlange. Die Formel lautet: wobei n der exponentielle Gewichtsfaktor ist, ein benutzerkonfigurierbarer Wert. Für hohe Werte von n. Wird der vorherige Durchschnitt wichtiger. Ein großer Faktor glättet die Spitzen und Tiefs in der Warteschlange Länge. Die durchschnittliche Warteschlange Größe ist unwahrscheinlich, dass sich sehr schnell ändern, wodurch drastische Schwankungen in der Größe. Der WRED-Prozess wird langsam sein, um das Löschen von Paketen zu starten, aber es kann weiterhin das Fallenlassen von Paketen für eine Zeit unterbrechen, nachdem die tatsächliche Warteschlangengröße unter die minimale Schwelle gefallen ist. Der langsame Durchschnitt wird vorübergehende Ausbrüche im Verkehr unterbringen. Hinweis Wenn der Wert von n zu hoch wird, reagiert WRED nicht auf Überlastung. Pakete werden gesendet oder fallen gelassen, als ob WRED nicht in Kraft waren. Für niedrige Werte von n. Die durchschnittliche Warteschlangengröße genau die aktuelle Warteschlangengröße verfolgt. Der daraus resultierende Durchschnitt kann mit Änderungen im Verkehrsniveau schwanken. In diesem Fall reagiert der WRED-Prozess schnell auf lange Warteschlangen. Sobald die Warteschlange unter die minimale Schwelle fällt, stoppt der Prozess das Löschen von Paketen. Wenn der Wert von n zu niedrig wird, wird WRED auf zeitweilige Verkehrsstöße überreagieren und Verkehr unnötig fallenlassen. Einschränkungen Sie können WRED nicht auf derselben Schnittstelle wie RSP (Rout Switching Processor), CQ, Priority Queuing (PQ) oder gewichtete Fair Queuing (WFQ) konfigurieren. Verteiltes Weighted Random Early Detection Distributed WRED (DWRED) ist eine Implementierung von WRED für den vielseitigen Schnittstellenprozessor (VIP). DWRED bietet den vollständigen Satz von Funktionen für das VIP, das WRED auf Standard-Cisco-IOS-Plattformen bereitstellt. Die DWRED-Funktion wird nur auf Routern der Cisco 7000-Serie mit RSP-basiertem RSP7000-Schnittstellenprozessor und Cisco-Routern der Serie 7500 mit einem VIP-basierten VIP2-40 oder größeren Schnittstellenprozessor unterstützt. Ein VIP2-50 Schnittstellenprozessor wird dringend empfohlen, wenn die Gesamtlinienrate der Portadapter auf dem VIP größer als DS3 ist. Für OC-3-Raten ist ein VIP2-50-Schnittstellenprozessor erforderlich. DWRED ist genauso konfiguriert wie WRED. Wenn Sie WRED auf einer geeigneten VIP-Schnittstelle wie einem VIP2-40 oder höher mit mindestens 2 MB SRAM aktivieren, wird DWRED stattdessen aktiviert. Für die Verwendung von DWRED muss auf der Schnittstelle eine dezentrale Cisco Express Forwarding (dCEF) - Schaltung aktiviert sein. Informationen über dCEF finden Sie im Cisco IOS Switching Services-Konfigurationshandbuch und in der Cisco IOS Switching Services-Befehlsreferenz. Sie können sowohl DWRED als auch verteilte, gewichtete Fair Queueing (DWFQ) auf derselben Schnittstelle konfigurieren, aber Sie können nicht verteilte WRED auf einer Schnittstelle konfigurieren, für die RSP-basierte CQ, PQ oder WFQ konfiguriert ist. Sie können DWRED mit der modularen QoS-Befehlszeilenschnittstelle (Modular QoS CLI) aktivieren. Ausführliche Konfigurations - und Konfigurationsinformationen zur Funktionalität von Modular QoS CLI finden Sie im Kapitel "Servicequalität der Befehlszeilenschnittstelle". Wie es funktioniert Wenn ein Paket ankommt und DWRED aktiviert ist, treten die folgenden Ereignisse auf: Die durchschnittliche Warteschlangengröße wird berechnet. Weitere Informationen hierzu finden Sie im Abschnitt "Quantitative Queue Sizequot". Wenn der Durchschnitt kleiner als die minimale Warteschlangenschwelle ist, wird das ankommende Paket in die Warteschlange gestellt. Wenn der Durchschnitt zwischen dem minimalen Warteschlangen-Schwellenwert und dem maximalen Warteschlangen-Schwellenwert liegt, wird das Paket entweder fallen gelassen oder in die Warteschlange eingereiht, abhängig von der Wahrscheinlichkeit des Paketausfalls. Details finden Sie im AbschnittPacket-Drop Probabilityquot. Wenn die durchschnittliche Warteschlangengröße größer als die maximale Warteschlangenschwelle ist, wird das Paket automatisch gelöscht. Durchschnittliche Warteschlangengröße Die durchschnittliche Warteschlangengröße basiert auf dem vorherigen Durchschnitt und der aktuellen Größe der Warteschlange. Die Formel lautet: wobei n der exponentielle Gewichtsfaktor ist, ein benutzerkonfigurierbarer Wert. Für hohe Werte von n. Wird die vorhergehende durchschnittliche Warteschlangengröße wichtiger. Ein großer Faktor glättet die Spitzen und Tiefs in der Warteschlange Länge. Die durchschnittliche Warteschlange Größe ist unwahrscheinlich, dass sich sehr schnell ändern, wodurch drastische Schwankungen in der Größe. Der WRED-Prozess wird langsam sein, um das Löschen von Paketen zu starten, aber es kann weiterhin das Fallenlassen von Paketen für eine Zeit unterbrechen, nachdem die tatsächliche Warteschlangengröße unter die minimale Schwelle gefallen ist. Der langsame Durchschnitt wird vorübergehende Ausbrüche im Verkehr unterbringen. Hinweis Wenn der Wert von n zu hoch wird, reagiert WRED nicht auf Überlastung. Pakete werden gesendet oder fallen gelassen, als ob WRED nicht in Kraft waren. Für niedrige Werte von n. Die durchschnittliche Warteschlangengröße genau die aktuelle Warteschlangengröße verfolgt. Der daraus resultierende Durchschnitt kann mit Änderungen im Verkehrsniveau schwanken. In diesem Fall reagiert der WRED-Prozess schnell auf lange Warteschlangen. Sobald die Warteschlange unter die minimale Schwelle fällt, stoppt das Verfahren das Fallenlassen von Paketen. Wenn der Wert von n zu niedrig wird, wird WRED auf zeitweilige Verkehrsstöße überreagieren und Verkehr unnötig fallenlassen. Packet-Drop-Wahrscheinlichkeit Die Wahrscheinlichkeit, dass ein Paket fallengelassen wird, basiert auf dem minimalen Schwellwert, dem maximalen Schwellenwert und dem Markierungswahrscheinlichkeits-Nenner. Wenn die durchschnittliche Warteschlangengröße über dem minimalen Schwellenwert liegt, beginnt ROT, Pakete zu löschen. Die Rate des Paketabfalls nimmt linear zu, wenn die durchschnittliche Warteschlangengröße zunimmt, bis die durchschnittliche Warteschlangengrße den maximalen Schwellenwert erreicht. Der Markierungswahrscheinlichkeits-Nenner ist der Bruchteil der Pakete, die fallengelassen werden, wenn die mittlere Warteschlangengröße an der maximalen Schwelle ist. Wenn beispielsweise der Nenner 512 ist, wird eines von 512 Paketen gelöscht, wenn die mittlere Warteschlange die maximale Schwelle hat. Wenn die durchschnittliche Warteschlangengröße oberhalb der maximalen Schwelle liegt, werden alle Pakete gelöscht. Abbildung 11 fasst die Paketwahrscheinlichkeit zusammen. Abbildung 11 Packet Drop-Wahrscheinlichkeit Der minimale Schwellwert sollte hoch genug eingestellt sein, um die Linkauslastung zu maximieren. Wenn die minimale Schwelle zu niedrig ist, können Pakete unnötig fallengelassen werden und die Übertragungsstrecke wird nicht vollständig verwendet. Die Differenz zwischen dem maximalen Schwellenwert und dem minimalen Schwellenwert sollte groß genug sein, um eine globale Synchronisierung von TCP-Hosts zu vermeiden (globale Synchronisation von TCP-Hosts kann auftreten, wenn mehrere TCP-Hosts ihre Übertragungsraten reduzieren). Wenn die Differenz zwischen den maximalen und minimalen Schwellenwerten zu klein ist, können viele Pakete gleichzeitig gelöscht werden, was zu einer globalen Synchronisation führt. Warum DWRED DWRED bietet eine schnellere Leistung als RSP-basierte WRED. Sie sollten DWRED auf dem VIP ausführen, wenn Sie z. B. auf der Cisco 7500 Series-Plattform eine sehr hohe Geschwindigkeit erreichen wollen, können Sie Geschwindigkeit mit den OC-3-Raten erzielen, indem Sie WRED auf einem VIP2-50-Schnittstellenprozessor ausführen. Darüber hinaus gelten die gleichen Gründe, die Sie WRED auf Standard-Cisco-IOS-Plattformen verwenden würden, für die Verwendung von DWRED. (Wenn Sie WRED oder DWRED nicht konfiguriert haben, wird der Schwanzabfall in Perioden der Überlastung durchgeführt. Die Aktivierung von DWRED beseitigt die globalen Synchronisierungsprobleme, die auftreten, wenn ein Heckabfall verwendet wird, um eine Überlastung zu vermeiden. Die DWRED-Funktion bietet den Vorteil gleichmäßiger Verkehrsströme. Wenn RED nicht konfiguriert ist, füllen die Ausgabepuffer während Perioden der Überlastung. Wenn die Puffer voll sind, werden Schwanzabfall alle zusätzlichen Pakete fallen gelassen. Da die Pakete alle gleichzeitig gelöscht werden, kann eine globale Synchronisierung von TCP-Hosts auftreten, da mehrere TCP-Hosts ihre Übertragungsraten reduzieren. Die Staus werden gelöscht, und die TCP-Hosts erhöhen ihre Übertragungsraten, was zu Wellen von Staus führt, gefolgt von Perioden, wenn die Übertragungsstrecke nicht vollständig verwendet wird. RED reduziert die Chancen des Schwanzabfalls durch selektives Löschen von Paketen, wenn die Ausgangsschnittstelle beginnt, Anzeichen einer Überlastung zu zeigen. Durch das Fallenlassen einiger Pakete früh, anstatt zu warten, bis der Puffer voll ist, vermeidet RED das Fallen einer großen Anzahl von Paketen auf einmal und minimiert die Chancen der globalen Synchronisation. Somit ermöglicht RED, dass die Übertragungsleitung zu jeder Zeit vollständig verwendet werden kann. Zusätzlich verringert RED statistisch mehr Pakete von den großen Benutzern als klein. Daher werden Verkehrsquellen, die den meisten Verkehr generieren, eher verlangsamt als Verkehrsquellen, die wenig Verkehr erzeugen. DWRED bietet separate Schwellenwerte und Gewichte für verschiedene IP-Prioritäten, so dass Sie verschiedene Qualitäten der Dienstleistung für verschiedene Traffic bieten. Standard-Verkehr kann häufiger fallen als Premium-Verkehr in Zeiten der Staus. Einschränkungen Für die DWRED-Funktion gelten folgende Einschränkungen: Schnittstellenbasiertes DWRED kann nicht auf einer Subschnittstelle konfiguriert werden. (Eine Unterschnittstelle ist eine von mehreren virtuellen Schnittstellen auf einer einzigen physikalischen Schnittstelle.) DWRED wird auf Fast EtherChannel - und Tunnelschnittstellen nicht unterstützt. RSVP wird auf DWRED nicht unterstützt. DWRED ist nur nützlich, wenn der Großteil des Verkehrs TCPIP-Verkehr ist. Mit TCP, fallen gelassene Pakete Staus, so dass die Paketquelle reduziert ihre Übertragungsrate. Bei anderen Protokollen reagieren Paketquellen möglicherweise nicht oder können die übertragenen Pakete mit der gleichen Geschwindigkeit erneut senden. Somit verringert das Löschen von Paketen nicht notwendigerweise die Überlastung. DWRED behandelt Nicht-IP-Verkehr als Priorität 0, die niedrigste Priorität. Daher wird der Non-IP-Verkehr in der Regel eher als IP-Verkehr fallengelassen. DWRED kann nicht auf der gleichen Schnittstelle wie RSP-basierte CQ, PQ oder WFQ konfiguriert werden. DWRED und DWFQ können jedoch auf der gleichen Schnittstelle konfiguriert werden. Hinweis Verwenden Sie nicht den Befehl match protocol, um eine Traffic-Klasse mit einem Non-IP-Protokoll als Übereinstimmungskriterium zu erstellen. Das VIP unterstützt keine Abstimmung von Nicht-IP-Protokollen. Voraussetzungen Dieser Abschnitt enthält die Voraussetzungen, die erfüllt sein müssen, bevor Sie die DWRED-Funktion konfigurieren. Weighted Fair Queuing Das Anhängen einer Servicerichtlinie an eine Schnittstelle deaktiviert WFQ auf dieser Schnittstelle, wenn WFQ für die Schnittstelle konfiguriert ist. Aus diesem Grund sollten Sie sicherstellen, dass WFQ auf einer solchen Schnittstelle nicht aktiviert ist, bevor Sie DWRED konfigurieren. Das Anhängen einer Servicerichtlinie, die für die Verwendung von WRED an einer Schnittstelle konfiguriert ist, deaktiviert WRED auf dieser Schnittstelle. Wenn eine der Verkehrsklassen, die Sie in einer Richtlinienzuordnung konfigurieren, WRED für Paketdrop anstelle von tail drop verwenden, müssen Sie sicherstellen, dass WRED nicht auf der Schnittstelle konfiguriert ist, an die Sie diese Dienstrichtlinie anfügen möchten. Zugriffssteuerungslisten Sie können eine nummerierte Zugriffsliste als Übereinstimmungskriterium für jede von Ihnen erstellte Verkehrsklasse angeben. Aus diesem Grund sollten Sie vor dem Konfigurieren von DWRED wissen, wie Sie Zugriffslisten konfigurieren. Cisco Express Forwarding Um DWRED verwenden zu können, muss an der Schnittstelle das dCEF-Switching aktiviert sein. Informationen zu dCEF finden Sie im Cisco IOS Switching Services-Konfigurationshandbuch. Durchflussbasierte WRED Durchflussbasierte WRED ist eine Funktion, die WRED zwingt, eine größere Fairness für alle Flüsse auf einer Schnittstelle in Bezug darauf zu gewährleisten, wie Pakete fallengelassen werden. Warum verwenden flowbasierte WRED Bevor Sie die Vorteile der Verwendung von flowbasierten WRED-Angeboten berücksichtigen, ist es hilfreich, darüber nachzudenken, wie WRED (ohne flowbasiertes WRED konfiguriert) verschiedene Arten von Paketströmen beeinflusst. Noch bevor flussbasierte WRED-Paketströme klassifiziert werden, können Strömungen als zu einer der folgenden Kategorien gehören angesehen werden: Nicht-adaptive Ströme, die Ströme sind, die nicht auf Staus reagieren. Robuste Ströme, die im Durchschnitt eine einheitliche Datenrate aufweisen und sich aufgrund von Staus verlangsamen. Zerbrechliche Ströme, die, obwohl stauungsbewusst, weniger Pakete an einem Gateway gepuffert haben als robuste Ströme. WRED tendiert zur Vorspannung gegenüber fragilen Strömen, da alle Ströme, sogar solche mit relativ wenigen Paketen in der Ausgangswarteschlange, während der Perioden der Stauung anfällig für einen Paketabfall sind. Obwohl fragile Flüsse weniger gepufferte Pakete aufweisen, werden sie mit der gleichen Rate fallengelassen wie Pakete von anderen Flüssen. Um eine flächenbasierte WRED zu gewährleisten, hat sie folgende Eigenschaften: Sie stellt sicher, dass Ströme, die auf WRED-Paket-Tropfen reagieren (durch Sichern der Paketübertragung), vor Flüssen geschützt sind, die nicht auf WRED-Pakettropfen antworten. Es verbietet einen einzigen Fluß, die Pufferressourcen an einer Schnittstelle zu monopolisieren. Wie es funktioniert Durchflussbasierte WRED basiert auf den folgenden zwei Hauptansätzen, um das Problem des unfairen Pakettransports zu beheben: Er klassifiziert eingehenden Datenverkehr in Flüsse basierend auf Parametern wie Ziel - und Quelladressen und Ports. Es behält Zustand über aktive Flüsse, die Flüsse sind, die Pakete in den Ausgangswarteschlangen haben. Durchflussbasierte WRED verwendet diese Klassifizierungs - und Zustandsinformationen, um sicherzustellen, dass jeder Fluss nicht mehr als den zugelassenen Anteil der Ausgabepufferressourcen verbraucht. Flow-basierte WRED bestimmt, welche Flüsse monopolisieren Ressourcen und es stärker bestraft diese Flüsse. Um die Fairness zwischen den Strömen zu gewährleisten, behält die strömungsbasierte WRED die Anzahl der aktiven Ströme, die über eine Ausgangsschnittstelle existieren, bei. Angesichts der Anzahl der aktiven Ströme und der Ausgabewarteschlangengröße bestimmt die strömungsbasierte WRED die Anzahl der verfügbaren Puffer pro Durchfluss. Um eine gewisse Bündelung zu ermöglichen, skaliert das strömungsbasierte WRED die Anzahl der verfügbaren Puffer pro Durchfluss durch einen konfigurierten Faktor und ermöglicht es jedem aktiven Fluss, eine bestimmte Anzahl von Paketen in der Ausgangswarteschlange zu haben. Dieser Skalierungsfaktor ist allen Flüssen gemeinsam. Das Ergebnis der skalierten Anzahl von Puffern wird die Durchflussgrenze. Wenn ein Durchfluss die Durchflussgrenze überschreitet, erhöht sich die Wahrscheinlichkeit, dass ein Paket von diesem Durchfluss fallen gelassen wird. DiffServ-kompatibel WRED DiffServ-kompatibel WRED erweitert die Funktionalität von WRED, um Unterstützung für DiffServ - und AF-Per-Hop-Verhalten PHB zu ermöglichen. Dieses Merkmal ermöglicht es dem Kunden, AF-PHB durch Färben von Paketen gemäß DSCP-Werten zu implementieren, und dann Zuordnen von bevorzugten Tropfenwahrscheinlichkeiten zu diesen Paketen. Hinweis Diese Funktion kann nur für IP-Pakete verwendet werden. Es ist nicht für den Einsatz mit Multiprotocol Label Switching (MPLS) - verkapselten Paketen gedacht. Die Class-Based Quality of Service MIB unterstützt diese Funktion. Diese MIB ist eigentlich die folgenden zwei MIBs: Die DiffServ-kompatible WRED-Funktion unterstützt die folgenden RFCs: RFC 2474, Definition des differenzierten Services Field (DS-Feld) in den IPv4 und IPv6 Headers RFC 2475, eine Architektur für differenzierte Services Framework RFC 2597, Gesicherte Weiterleitung PHB RFC 2598, eine beschleunigte Weiterleitung PHB Wie es funktioniert Die DiffServ-konforme WRED-Funktion ermöglicht es WRED, den DSCP-Wert zu verwenden, wenn er die Fallwahrscheinlichkeit für ein Paket berechnet. Der DSCP-Wert ist die ersten sechs Bits des IP-Typs des Dienstes (ToS) - Bytes. Diese Funktion fügt zwei neue Befehle, random-detect dscp und dscp. Es fügt auch zwei neue Argumente, dscp-basierte und prä-basiert. Zu zwei bestehenden WRED-bezogenen Befehlen aus dem Befehl random-detect (interface) und dem Befehl random-detect-group. Das dscp-basierte Argument ermöglicht WRED, den DSCP-Wert eines Pakets zu verwenden, wenn es die Fallwahrscheinlichkeit für das Paket berechnet. Das prä-basierte Argument ermöglicht WRED, den IP Precedence-Wert eines Pakets zu verwenden, wenn er die Fallwahrscheinlichkeit für das Paket berechnet. Diese Argumente sind optional (Sie brauchen keine von ihnen verwenden, um die Befehle zu verwenden), aber sie schließen sich auch gegenseitig aus. Das heißt, wenn Sie das dscp-basierte Argument verwenden, können Sie das pre-based Argument mit demselben Befehl nicht verwenden. After enabling WRED to use the DSCP value, you can then use the new random-detect dscp command to change the minimum and maximum packet thresholds for that DSCP value. Three scenarios for using these arguments are provided. Usage Scenarios The new dscp-based and prec-based arguments can be used whether you are using WRED at the interface level, at the per-virtual circuit (VC) level, or at the class level (as part of class-based WFQ (CBWFQ) with policy maps). WRED at the Interface Level At the interface level, if you want to have WRED use the DSCP value when it calculates the drop probability, you can use the dscp-based argument with the random-detect (interface) command to specify the DSCP value. Then use the random-detect dscp command to specify the minimum and maximum thresholds for the DSCP value. WRED at the per-VC Level At the per-VC level, if you want to have WRED use the DSCP value when it calculates the drop probability, you can use the dscp-based argument with the random-detect-group command. Then use the dscp command to specify the minimum and maximum thresholds for the DSCP value or the mark-probability denominator. This configuration can then be applied to each VC in the network. WRED at the Class Level If you are using WRED at the class level (with CBWFQ), the dscp-based and prec-based arguments can be used within the policy map. First, specify the policy map, the class, and the bandwidth. Then, if you want WRED to use the DSCP value when it calculates the drop probability, use the dscp-based argument with the random-detect (interface) command to specify the DSCP value. Then use the random-detect dscp command to modify the default minimum and maximum thresholds for the DSCP value. This configuration can then be applied wherever policy maps are attached (for example, at the interface level, the per-VC level, or the shaper level). Usage Points to Note Remember the following points when using the new commands and the new arguments included with this feature: If you use the dscp-based argument, WRED will use the DSCP value to calculate the drop probability. If you use the prec-based argument, WRED will use the IP Precedence value to calculate the drop probability. The dscp-based and prec-based arguments are mutually exclusive. If you do not specify either argument, WRED will use the IP Precedence value to calculate the drop probability (the default method). The random-detect dscp command must be used in conjunction with the random-detect (interface) command. The random-detect dscp command can only be used if you use the dscp-based argument with the random-detect (interface) command. The dscp command must be used in conjunction with the random-detect-group command. The dscp command can only be used if you use the dscp-based argument with the random-detect-group command. For more information about using these commands, refer to the Cisco IOS Quality of Service Command Reference.

No comments:

Post a Comment