Wir testen das Ultrahochgeschwindigkeitsnetz und suchen nach seinen Schwachstellen. Warum große Internetanbieter auf Highspeed-Tarife verzichten

Letztes Jahr alles große Anbieter Plötzlich begannen sie, in atemberaubendem Tempo Zölle einzuführen. Dreihundert Megabit pro Sekunde! Fünfhundert! Gigabit! Und dann haben sie sie nach und nach verlassen. Und jetzt hat mein geliebtes Online maximal 100 Mbit/s, Beeline hat die gleiche Menge (mit einer Einschränkung, die weiter unten besprochen wird) und aus irgendeinem Grund hat das noch lebende Akado 150 Mbit/s, obwohl letzteres alles schreiben kann , alles gilt als gleich schwierig.

Warum haben die Anbieter die Geschwindigkeit gedrosselt? Dabei kommen mir verschiedene Optionen in den Sinn, von den hohen Kosten für Investitionen in die Netzwerkinfrastruktur bis hin zu den Folgen von Sanktionen. Aber in Wirklichkeit ist alles viel, viel einfacher. Es stellte sich wie ein berühmter Witz heraus, den ich gerne erzähle.

Leonid Iljitsch Breschnew wird gefragt:

– Warum gibt es kein Fleisch in Geschäften?

„Wir bewegen uns sprunghaft auf den Kommunismus zu, das Vieh kann nicht mithalten.“

Rinder sind der Stand der Technik, den wir gewohnt sind.

Gigabit in die Wohnung zu bringen ist keine billige Aufgabe, aber durchaus möglich. Und diese Geschwindigkeit kann gewährleistet werden. Aber dann wird es schlimm.

Um auch nur 500 Mbit/s zu pumpen, benötigen Sie einen Router der Spitzenklasse. Maximal vor einem Jahr. Und es ist besser, völlig frisch zu sein. Andernfalls wird es überhitzen und ersticken. Es gibt nur sehr wenige solcher Router in den Händen der Bevölkerung. Wir verwenden so altes Zeug, dass es uns den Atem raubt. Funktioniert es? Nun, lassen Sie es funktionieren, Sie müssen es nicht ändern. Auch Gigabit-Ports sind noch nicht überall verfügbar.

Um Daten mit solchen Geschwindigkeiten über die Luft zu übertragen, benötigen Sie 802.11ac-Unterstützung. Sowohl der Router als auch, was wichtig ist, das Endgerät. Unterdessen sind offizielle Lieferungen von Laptops mit 802.11ac nach Russland aufgrund der fehlenden Zertifizierung durch das Kommunikationsministerium bislang verboten. Also nur 802.11n und eine Spitzengeschwindigkeit von 450 Mbit/s, tatsächlich aber etwa 300. Und selbst auf den wenigen in die „Grau“ importierten Geräten überstieg die Sselten 866 Mbit/s.

Und wie ist alles in der Praxis passiert?

Ein Mann mit einem vor fünf Jahren gekauften Router und einem Zoo an Geräten, die 802.11ac nicht unterstützen, schließt einen Gigabit-Tarif an und stellt empört fest, dass die Geschwindigkeit nicht gleich ist! Es ist unmöglich, mehr als 300 Megabit zu erreichen! Sie haben euch betrogen, korrupte Kreaturen! Es beginnen wütende Nachrichten an Foren, Briefe und Anrufe beim technischen Support. Ohne den Besuch eines Spezialisten ist es unmöglich, die Gründe für das Geschehen herauszufinden. Also werden auch sie verfolgt. Die Experten sagen den Benutzern: Kaufen Sie neue Router, aktualisieren Sie Ihre Geräte. Das löst eine neue Welle der Empörung aus – oh ihr Geschöpfe, ihr verschwendet nicht nur jeden Monat Geld, sondern gibt es auch für Ausrüstung aus! Ja, ich werde dich verklagen!

Im Allgemeinen wurde den Anbietern nach drei Monaten solchen Chaos klar, dass Nerven teurer sind. Und sie haben die Hochgeschwindigkeitstarife von den Websites entfernt. Tatsächlich haben die meisten Benutzer keine Möglichkeit, 100 Megabit unterzubringen. Und sogar 50. Das Verschwinden der Zölle hat also niemand wirklich bemerkt.

Sie schreiben mir, dass kleine Anbieter immer noch versuchen, Geschwindigkeiten von 400 und sogar 500 Mbit/s zu verkaufen, aber entweder sind ihre Benutzer aufgepumpt, oder der technische Support hat Titannerven. MGTS hat einen 500-Megabit-Tarif im Sortiment, aber sie können nirgendwo hingehen, mit einem solchen Pathos haben sie „Gigabit in jedes Haus“ geschleppt, dass es unmöglich ist, ihn abzulehnen. Beeline verkauft 365 Megabit zum teuersten Tarif, allerdings nur in Verbindung mit seinem Router (übrigens sehr cool – die erste Implementierung von 802.11ac auf dem Mediatek-Chipsatz). Ich befürchte jedenfalls, dass wir im Massensegment erst in ein paar Jahren wieder auf das Gigabit-Niveau zurückkehren können.

Ich hatte es nicht eilig, mein Heimnetzwerk von 100 Mbit/s auf 1 Gbit/s zu aktualisieren, was für mich ziemlich seltsam ist, da ich viele Dateien über das Netzwerk übertrage. Wenn ich jedoch Geld für ein Computer- oder Infrastruktur-Upgrade ausgebe, glaube ich, dass ich eine sofortige Leistungssteigerung bei den von mir ausgeführten Apps und Spielen erzielen sollte. Viele Benutzer gönnen sich gerne eine neue Grafikkarte, einen neuen Zentralprozessor und ein paar Gadgets. Aus irgendeinem Grund erregen Netzwerkgeräte jedoch nicht so viel Begeisterung. Tatsächlich ist es schwierig, das Geld, das man verdient, in die Netzwerkinfrastruktur zu investieren, anstatt in ein weiteres technologisches Geburtstagsgeschenk.

Allerdings sind meine Anforderungen an die Bandbreite sehr hoch und irgendwann wurde mir klar, dass eine 100-Mbit/s-Infrastruktur nicht mehr ausreicht. Alle meine Heimcomputer verfügen bereits über integrierte 1-Gbit/s-Adapter (auf ihren Motherboards), daher habe ich beschlossen, die Preisliste des nächstgelegenen Computerunternehmens zu konsultieren und zu sehen, was ich benötigen würde, um meine gesamte Netzwerkinfrastruktur auf 1 Gbit/s umzustellen.

Nein, ein Heim-Gigabit-Netzwerk ist gar nicht so kompliziert.

Ich habe die gesamte Ausrüstung gekauft und installiert. Ich erinnere mich, dass es früher etwa anderthalb Minuten dauerte, eine große Datei über ein 100-Mbit/s-Netzwerk zu kopieren. Nach einem Upgrade auf 1 Gbit/s begann der Kopiervorgang derselben Datei in 40 Sekunden. Die Leistungssteigerung war angenehm erfreulich, aber ich habe immer noch nicht die zehnfache Verbesserung erzielt, die man erwarten konnte, wenn man den Durchsatz von 100 Mbit/s und 1 Gbit/s des alten und des neuen Netzwerks vergleicht.

Was ist der Grund?

Für ein Gigabit-Netzwerk müssen alle Teile 1 Gbit/s unterstützen. Wenn Sie beispielsweise Gigabit-Netzwerkkarten und zugehörige Kabel installiert haben, der Hub/Switch jedoch nur 100 Mbit/s unterstützt, wird das gesamte Netzwerk mit 100 Mbit/s betrieben.

Die erste Voraussetzung ist ein Netzwerkcontroller. Am besten ist es, wenn jeder Computer im Netzwerk mit einem Gigabit-Netzwerkadapter (separat oder auf dem Motherboard integriert) ausgestattet ist. Diese Anforderung ist am einfachsten zu erfüllen, da die meisten Motherboard-Hersteller über mehrere verfügen den letzten Jahren Gigabit-Netzwerkcontroller integrieren.

Die zweite Voraussetzung ist, dass die Netzwerkkarte ebenfalls 1 Gbit/s unterstützen muss. Es gibt ein weit verbreitetes Missverständnis, dass Gigabit-Netzwerke ein Cat-5e-Kabel erfordern, aber tatsächlich unterstützen sogar alte Cat-5-Kabel 1 Gbit/s. Bei Cat 5e-Kabeln ist dies jedoch der Fall beste Eigenschaften Daher sind sie eine optimalere Lösung für Gigabit-Netzwerke, insbesondere wenn die Kabel eine angemessene Länge haben. Allerdings sind Cat-5e-Kabel auch heute noch die günstigsten, da der alte Cat-5-Standard bereits veraltet ist. Neuere und teurere Cat-6-Kabel bieten eine noch bessere Leistung für Gigabit-Netzwerke. Wir werden die Leistung von Cat 5e- und Cat 6-Kabeln später in unserem Artikel vergleichen.

Die dritte und wahrscheinlich teuerste Komponente in einem Gigabit-Netzwerk ist der 1-Gbit/s-Hub/Switch. Natürlich ist es besser, einen Switch (vielleicht gepaart mit einem Router) zu verwenden, da ein Hub oder Hub nicht das intelligenteste Gerät ist, sondern einfach alle Netzwerkdaten an alle sendet verfügbare Ports, was zu einer großen Anzahl von Kollisionen führt und die Netzwerkleistung verlangsamt. Wenn Sie eine hohe Leistung benötigen, können Sie auf einen Gigabit-Switch nicht verzichten, da dieser die Netzwerkdaten nur an den gewünschten Port weiterleitet, was die Netzwerkgeschwindigkeit im Vergleich zu einem Hub effektiv erhöht. Ein Router enthält normalerweise einen eingebauten Switch (mit mehreren LAN-Ports) und ermöglicht Ihnen auch die Verbindung Ihres Heimnetzwerks mit dem Internet. Die meisten Heimanwender wissen um die Vorteile eines Routers, daher ist ein Gigabit-Router eine sehr attraktive Option.

Wie schnell sollte Gigabit sein? Wenn Sie das Präfix „Giga“ hören, meinen Sie wahrscheinlich 1000 Megabyte, während ein Gigabit-Netzwerk 1000 Megabyte pro Sekunde bereitstellen sollte. Wenn Sie das denken, dann sind Sie nicht allein. Aber leider ist in Wirklichkeit alles anders.

Was ist Gigabit? Das sind 1000 Megabit, nicht 1000 Megabyte. Ein Byte besteht aus 8 Bits, also rechnen wir einfach mal durch: 1.000.000.000 Bits geteilt durch 8 Bits = 125.000.000 Bytes. Da ein Megabyte etwa eine Million Bytes enthält, sollte ein Gigabit-Netzwerk theoretisch eine maximale Datenübertragungsrate von etwa 125 MB/s bieten.

Sicher, 125 MB/s klingen nicht so beeindruckend wie Gigabit, aber denken Sie darüber nach: Ein Netzwerk mit dieser Geschwindigkeit sollte theoretisch ein Gigabyte Daten in nur acht Sekunden übertragen. Und ein 10-GB-Archiv sollte in nur einer Minute und 20 Sekunden übertragen werden. Die Geschwindigkeit ist unglaublich: Denken Sie nur daran, wie lange es gedauert hat, ein Gigabyte an Daten zu übertragen, bevor USB-Sticks so schnell waren wie heute.

Unsere Erwartungen waren hoch, also entschieden wir uns, die Datei über ein Gigabit-Netzwerk zu übertragen und Geschwindigkeiten von nahezu 125 MB/s zu genießen. Wir haben keine spezielle, ausgefallene Hardware: ein einfaches Heimnetzwerk mit alter, aber anständiger Technologie.

Das Kopieren einer 4,3-GB-Datei von einem Heimcomputer auf einen anderen erfolgte mit einer Durchschnittsgeschwindigkeit von 35,8 MB/s (wir führten den Test fünfmal durch). Das sind nur 30 % der theoretischen Obergrenze eines Gigabit-Netzwerks von 125 MB/s.

Was sind die Ursachen des Problems?

Die Auswahl der Komponenten für die Installation eines Gigabit-Netzwerks ist recht einfach, aber es ist viel schwieriger, das Netzwerk mit maximaler Geschwindigkeit zum Laufen zu bringen. Es gibt zahlreiche Faktoren, die dazu führen können, dass ein Netzwerk langsamer wird. Wir haben jedoch herausgefunden, dass alles davon abhängt, wie schnell die Festplatten Daten an den Netzwerkcontroller übertragen können.

Die erste Einschränkung, die berücksichtigt werden muss, ist die Schnittstelle des Gigabit-Netzwerkcontrollers zum System. Wenn Ihr Controller über den alten PCI-Bus angeschlossen ist, beträgt die Datenmenge, die er theoretisch übertragen kann, 133 MB/s. Für den Gigabit-Ethernet-Durchsatz von 125 MB/s scheint dies ausreichend zu sein, aber bedenken Sie, dass die PCI-Bus-Bandbreite im gesamten System gemeinsam genutzt wird. Jede zusätzliche PCI-Karte und viele Systemkomponenten nutzen die gleiche Bandbreite, wodurch die für die Netzwerkkarte verfügbaren Ressourcen reduziert werden. Bei Controllern mit der neuen PCI-Express-Schnittstelle (PCIe) treten solche Probleme nicht auf, da jede PCIe-Leitung mindestens 250 MB/s Bandbreite bereitstellt, und zwar exklusiv für das Gerät.

Nächste Wichtiger Faktor, was sich auf die Geschwindigkeit der Netzwerkkabel auswirkt. Viele Experten weisen darauf hin, dass niedrige Geschwindigkeiten gewährleistet sind, wenn Netzwerkkabel neben Stromkabeln verlegt werden, die Störquellen darstellen. Auch große Kabellängen sind problematisch, da Cat 5e-Kupferkabel auf eine maximale Länge von 100 Metern zertifiziert sind.

Einige Experten empfehlen, Kabel nach dem neuen Cat 6-Standard anstelle von Cat 5e zu verlegen. Solche Empfehlungen sind oft schwer zu rechtfertigen, aber wir werden versuchen, die Auswirkung der Kabelkategorie auf ein kleines Gigabit-Heimnetzwerk zu testen.

Vergessen wir nicht das Betriebssystem. Natürlich wird dieses System selten in einer Gigabit-Umgebung verwendet, aber es ist erwähnenswert, dass Windows 98 SE (und ältere Betriebssysteme) nicht in der Lage sein werden, Gigabit-Ethernet zu nutzen, da der TCP/IP-Stack dieses Betriebssystems dies tut Es ist kaum möglich, eine 100-Mbps-Verbindung vollständig auszulasten. Windows 2000 und neuere Windows-Versionen sind in Ordnung, ältere Betriebssysteme benötigen jedoch einige Anpassungen, um sicherzustellen, dass sie das Netzwerk optimal nutzen. Wir werden für unsere Tests Windows Vista 32-Bit verwenden, und obwohl Vista für einige Aufgaben nicht den besten Ruf hat, unterstützt es von Anfang an Gigabit-Netzwerke.

Kommen wir nun zu den Festplatten. Sogar die ältere IDE-Schnittstelle mit der ATA/133-Spezifikation sollte ausreichen, um eine theoretische Dateiübertragungsgeschwindigkeit von 133 MB/s zu unterstützen, und die neuere SATA-Spezifikation erfüllt diese Anforderungen, da sie einen Durchsatz von mindestens 1,5 Gbit/s (150 MB) bietet . /Mit). Während Kabel und Controller die Datenübertragung mit solchen Geschwindigkeiten bewältigen können, ist dies bei den Festplatten selbst nicht möglich.

Nehmen wir als Beispiel eine typische moderne 500-GB-Festplatte, die einen konstanten Durchsatz von etwa 65 MB/s liefern sollte. Am Anfang der Platten (äußere Gleise) kann die Geschwindigkeit höher sein, aber wenn man sich zu den inneren Gleisen bewegt, sinkt der Durchsatz. Daten auf internen Spuren werden mit etwa 45 MB/s langsamer gelesen.

Wir dachten, wir hätten alle möglichen Engpässe abgedeckt. Was blieb noch zu tun? Wir mussten einige Tests durchführen und sehen, ob wir die Netzwerkleistung auf die theoretische Grenze von 125 MB/s bringen konnten.

Testkonfiguration

Testsysteme Serversystem Client-System
CPU Intel Core 2 Duo E6750 (Conroe), 2,66 GHz, FSB-1333, 4 MB Cache Intel Core 2 Quad Q6600 (Kentsfield), 2,7 GHz, FSB-1200, 8 MB Cache
Hauptplatine ASUS P5K, Intel P35, BIOS 0902 MSI P7N SLI Platinum, Nvidia nForce 750i, BIOS A2
Netz Integrierter Abit-Gigabit-LAN-Controller Integrierter nForce 750i Gigabit Ethernet Controller
Erinnerung Wintec Ampo PC2-6400, 2x 2048 MB, DDR2-667, CL 5-5-5-15 bei 1,8 V A-Data EXTREME DDR2 800+, 2x 2048 MB, DDR2-800, CL 5-5-5-18 bei 1,8 V
Grafikkarten ASUS GeForce GTS 250 Dark Knight, 1 GB GDDR3-2200, 738 MHz GPU, 1836 MHz Shader-Einheit MSI GTX260 Lightning, 1792 MB GDDR3-1998, 590-MHz-GPU, 1296-MHz-Shader-Einheit
Festplatte 1 Seagate Barracuda ST3320620AS, 320 GB, 7200 U/min, 16 MB Cache, SATA 300
Festplatte 2 2x Hitachi Deskstar 0A-38016 im RAID 1, 7200 U/min, 16 MB Cache, SATA 300 Western Digital Caviar WD50 00AAJS-00YFA, 500 GB, 7200 U/min, 8 MB Cache, SATA 300
Netzteil Aerocool Zerodba 620 W, 620 W, ATX12V 2.02 Ultra HE1000X, ATX 2.2, 1000 W
Netzwerkschalter D-Link DGS-1008D, 8-Port 10/100/1000 Unmanaged Gigabit Desktop Switch
Software und Treiber
Betriebssystem Microsoft Windows Vista Ultimate 32-Bit 6.0.6001, SP1
DirectX-Version DirectX 10
Grafiktreiber Nvidia GeForce 185.85

Tests und Einstellungen

Tests und Einstellungen
Nodesoft Diskbench Version: 2.5.0.5, Dateikopie, Erstellung, Lesen und Batch-Benchmark
SiSoftware Sandra 2009 SP3 Version 2009.4.15.92, CPU-Test = CPU-Arithmetik / Multimedia, Speichertest = Bandbreiten-Benchmark

Bevor wir zu Benchmarks übergehen, haben wir beschlossen, die Festplatten offline zu testen, um zu sehen, welchen Durchsatz wir im Idealfall erwarten können.

Wir haben zwei PCs, die in unserem Heim-Gigabit-Netzwerk laufen. Der erste, den wir Server nennen, ist mit zwei Festplattensubsystemen ausgestattet. Die Hauptfestplatte ist eine 320 GB Seagate Barracuda ST3320620AS, ein paar Jahre alt. Der Server arbeitet als NAS mit einem RAID-Array bestehend aus zwei 1 TB großen Hitachi Deskstar 0A-38016-Festplatten, die aus Redundanzgründen gespiegelt sind.

Den zweiten PC im Netzwerk nannten wir Client; er verfügt über zwei Festplatten: beide 500 GB Western Digital Caviar 00AAJS-00YFA, etwa sechs Monate alt.

Wir haben zunächst die Geschwindigkeit der Server- und Client-Systemfestplatten getestet, um zu sehen, welche Leistung wir von ihnen erwarten können. Wir haben den Festplattentest in SiSoftware Sandra 2009 verwendet.

Unsere Träume, Gigabit-Dateiübertragungsgeschwindigkeiten zu erreichen, wurden sofort zunichte gemacht. Beide Einzelfestplatten erreichten eine maximale Lesegeschwindigkeit von etwa 75 MB/s ideale Bedingungen. Da dieser Test unter realen Bedingungen durchgeführt wird und die Festplatten zu 60 % ausgelastet sind, können wir Lesegeschwindigkeiten erwarten, die näher am 65 MB/s-Index liegen, den wir von beiden Festplatten erhalten haben.

Aber schauen wir uns die Leistung von RAID 1 an – das Beste an diesem Array ist, dass der Hardware-RAID-Controller die Leseleistung erhöhen kann, indem er Daten von beiden Festplatten gleichzeitig abruft, ähnlich wie bei RAID 0-Arrays; Allerdings tritt dieser Effekt (soweit wir wissen) nur bei Hardware-RAID-Controllern auf, nicht jedoch bei Software-RAID-Lösungen. In unseren Tests lieferte das RAID-Array eine viel schnellere Leseleistung als eine einzelne Festplatte, daher stehen die Chancen gut, dass wir mit dem RAID 1-Array hohe Netzwerkdateiübertragungsgeschwindigkeiten erzielen. Das RAID-Array lieferte einen beeindruckenden Spitzendurchsatz von 108 MB/s , aber in Wirklichkeit sollte die Leistung nahe am 88 MB/s-Index liegen, da das Array zu 55 % ausgelastet ist.

Wir sollten also etwa 88 MB/s über ein Gigabit-Netzwerk erreichen, oder? Das kommt der 125-MB/s-Obergrenze des Gigabit-Netzwerks bei weitem nicht so nahe, aber es ist viel schneller als 100-Mbit/s-Netzwerke mit einer 12,5-MB/s-Obergrenze, sodass es in der Praxis gar nicht so schlecht wäre, 88 MB/s zu erreichen .

Aber so einfach ist es nicht. Nur weil die Lesegeschwindigkeit von Festplatten recht hoch ist, heißt das nicht, dass sie unter realen Bedingungen schnell Informationen schreiben. Lassen Sie uns einige Tests zum Schreiben auf die Festplatte durchführen, bevor wir das Netzwerk verwenden. Wir beginnen mit unserem Server und kopieren das 4,3-GB-Image vom Hochgeschwindigkeits-RAID-Array auf die 320-GB-Systemfestplatte und wieder zurück. Anschließend kopieren wir die Datei vom Laufwerk D: des Clients auf das Laufwerk C:.

Wie Sie sehen, ergab das Kopieren von einem schnellen RAID-Array auf Laufwerk C: eine durchschnittliche Geschwindigkeit von nur 41 MB/s. Und das Kopieren vom Laufwerk C: auf ein RAID 1-Array führte zu einem Rückgang von nur 25 MB/s. Was ist los?

Genau das passiert in der Realität: Festplatte C: wurde vor etwas mehr als einem Jahr freigegeben, ist aber zu 60 % voll, wahrscheinlich etwas fragmentiert, sodass sie in Sachen Aufnahme keine Rekorde bricht. Es gibt noch andere Faktoren, nämlich wie schnell das System und der Speicher im Allgemeinen arbeiten. RAID 1 besteht aus relativ neuer Hardware, aber aufgrund der Redundanz müssen Informationen gleichzeitig auf zwei Festplatten geschrieben werden, was die Leistung verringert. Obwohl RAID 1 eine hohe Leseleistung bieten kann, muss die Schreibgeschwindigkeit geopfert werden. Natürlich könnten wir ein gestreiftes RAID 0-Array verwenden, das hohe Schreib- und Lesegeschwindigkeiten bietet, aber wenn eine Festplatte ausfällt, werden alle Informationen beschädigt. Insgesamt ist RAID 1 mehr die richtige Option, wenn Sie Wert auf die auf dem NAS gespeicherten Daten legen.

Allerdings ist noch nicht alles verloren. Das neue 500-GB-Laufwerk von Digital Caviar ist in der Lage, unsere Datei mit 70,3 MB/s zu schreiben (Durchschnitt aus fünf Testläufen) und liefert außerdem eine Höchstgeschwindigkeit von 73,2 MB/s.

Vor diesem Hintergrund erwarteten wir eine reale maximale Übertragungsgeschwindigkeit von 73 MB/s über ein Gigabit-Netzwerk vom NAS RAID 1-Array zum Laufwerk C: des Clients. Wir testen auch Dateiübertragungen vom Laufwerk C: des Clients zum Laufwerk C: des Servers, um zu sehen, ob wir realistischerweise 40 MB/s in diese Richtung erwarten können.

Beginnen wir mit dem ersten Test, bei dem wir eine Datei vom Laufwerk C: des Clients an das Laufwerk C: des Servers gesendet haben.

Wie wir sehen, entsprechen die Ergebnisse unseren Erwartungen. Ein Gigabit-Netzwerk, das theoretisch 125 MB/s erreichen kann, sendet Daten vom Laufwerk C: des Clients mit der schnellstmöglichen Geschwindigkeit, wahrscheinlich etwa 65 MB/s. Aber wie wir oben gezeigt haben, kann das Laufwerk C: des Servers nur mit etwa 40 MB/s schreiben.

Kopieren wir nun die Datei vom Hochgeschwindigkeits-RAID-Array des Servers auf das Laufwerk C: des Client-Computers.

Alles verlief so, wie wir es erwartet hatten. Aus unseren Tests wissen wir, dass das Laufwerk C: des Client-Computers in der Lage ist, Daten mit etwa 70 MB/s zu schreiben, und die Gigabit-Netzwerkleistung kam dieser Geschwindigkeit sehr nahe.

Leider kommen unsere Ergebnisse nicht annähernd an den theoretischen Maximaldurchsatz von 125 MB/s heran. Können wir die maximale Netzwerkgeschwindigkeit testen? Sicher, aber nicht in einem realistischen Szenario. Wir werden versuchen, Informationen über das Netzwerk von Speicher zu Speicher zu übertragen, um etwaige Bandbreitenbeschränkungen von Festplatten zu umgehen.

Dazu erstellen wir eine 1-GB-RAM-Disk auf dem Server und den Client-PCs und übertragen dann die 1-GB-Datei zwischen diesen Festplatten über das Netzwerk. Da selbst langsamer DDR2-Speicher in der Lage ist, Daten mit Geschwindigkeiten von mehr als 3000 MB/s zu übertragen, wird die Netzwerkbandbreite der limitierende Faktor sein.

In unserem Gigabit-Netzwerk erreichten wir eine maximale Geschwindigkeit von 111,4 MB/s, was sehr nahe an der theoretischen Grenze von 125 MB/s liegt. Ein hervorragendes Ergebnis, darüber gibt es keinen Grund zur Klage, da der tatsächliche Durchsatz aufgrund der Übertragung von Zusatzinformationen, Fehlern, Neuübertragungen usw. immer noch nicht das theoretische Maximum erreicht.

Das Fazit lautet wie folgt: Heutzutage wird die Leistung der Informationsübertragung über ein Gigabit-Netzwerk durch Festplatten begrenzt, d. h. die Übertragungsgeschwindigkeit wird durch die langsamste am Prozess beteiligte Festplatte begrenzt. Nachdem wir die wichtigste Frage beantwortet haben, können wir zur Vervollständigung unseres Artikels mit Geschwindigkeitstests je nach Kabelkonfiguration fortfahren. Könnte eine Optimierung der Verkabelung die Netzwerkgeschwindigkeit noch näher an die theoretische Grenze bringen?

Da die Leistung in unseren Tests nahezu den Erwartungen entsprach, ist es unwahrscheinlich, dass wir durch eine Änderung der Kabelkonfiguration eine Verbesserung feststellen werden. Aber wir wollten trotzdem Tests durchführen, um dem theoretischen Tempolimit näher zu kommen.

Wir haben vier Tests durchgeführt.

Test 1: Standard.

IN dieser Test Wir verwendeten zwei etwa 8 Meter lange Kabel, die jeweils an einem Ende mit einem Computer und am anderen Ende mit einem Gigabit-Switch verbunden waren. Wir haben die Kabel dort gelassen, wo sie verlegt waren, also neben den Stromkabeln und Steckdosen.

Diesmal verwendeten wir die gleichen 8-Gauge-Kabel wie im ersten Test, verlegten das Netzwerkkabel jedoch so weit wie möglich von Stromkabeln und Verlängerungskabeln entfernt.

In diesem Test haben wir eines der 8 m langen Kabel entfernt und durch einen Meter Cat 5e-Kabel ersetzt.

Im letzten Test haben wir die Cat 5e-Kabel des 8 durch die Cat 6-Kabel des 8 ersetzt.

Im Allgemeinen zeigten unsere Tests verschiedener Kabelkonfigurationen keinen signifikanten Unterschied, es lassen sich jedoch Schlussfolgerungen ziehen.

Test 2: Reduzierung von Störungen durch Stromkabel.

In kleinen Netzwerken wie unserem Heimnetzwerk haben Tests gezeigt, dass Sie sich keine Sorgen darüber machen müssen, LAN-Kabel in der Nähe von Stromkabeln, Steckdosen und Verlängerungskabeln zu verlegen. Natürlich sind die Störungen höher, die Netzwerkgeschwindigkeit wird dadurch jedoch nicht gravierend beeinträchtigt. Dennoch ist es besser, das Gerät nicht in der Nähe von Stromkabeln zu verlegen, und Sie sollten bedenken, dass die Situation in Ihrem Netzwerk anders sein kann.

Test 3: Reduzieren Sie die Länge der Kabel.

Dies ist kein völlig korrekter Test, aber wir haben versucht, den Unterschied festzustellen. Es ist zu bedenken, dass der Austausch eines acht Meter langen Kabels durch ein Meterkabel dazu führen kann, dass das Ergebnis lediglich andere Kabel als Unterschiede in der Entfernung sind. Auf jeden Fall sehen wir in den meisten Tests keinen signifikanten Unterschied, mit Ausnahme eines abnormalen Anstiegs des Durchsatzes beim Kopieren vom Laufwerk C: des Clients auf das Laufwerk C: des Servers.

Test 4: Ersetzen Sie Cat-5e-Kabel durch Cat-6-Kabel.

Auch hier konnten wir keinen signifikanten Unterschied feststellen. Da die Kabel etwa 8 Meter lang sind, können längere Kabel einen großen Unterschied machen. Wenn Ihre Länge jedoch nicht das Maximum ist, funktionieren Cat 5e-Kabel in einem Heim-Gigabit-Netzwerk mit einer Entfernung von 16 Metern zwischen zwei Computern ganz gut.

Interessant ist, dass die Manipulation der Kabel keinen Einfluss auf die Datenübertragung zwischen den RAM-Festplatten des Computers hatte. Es ist klar, dass eine andere Komponente im Netzwerk die Leistung auf die magische Zahl von 111 MB/s begrenzte. Ein solches Ergebnis ist jedoch immer noch akzeptabel.

Bieten Gigabit-Netzwerke Gigabit-Geschwindigkeiten? Wie sich herausstellt, ist das fast der Fall.

Unter realen Bedingungen wird die Netzwerkgeschwindigkeit jedoch durch Festplatten stark eingeschränkt. In einem synthetischen Speicher-zu-Speicher-Szenario lieferte unser Gigabit-Netzwerk eine Leistung, die sehr nahe an der theoretischen Grenze von 125 MB/s lag. Die regulären Netzwerkgeschwindigkeiten werden unter Berücksichtigung der Festplattenleistung je nach verwendeter Festplatte auf Werte von 20 bis 85 MB/s begrenzt.

Wir haben auch die Auswirkungen von Netzkabeln, Kabellängen und dem Upgrade von Cat 5e auf Cat 6 getestet. In unserem kleinen Heimnetzwerk hatte keiner der genannten Faktoren einen wesentlichen Einfluss auf die Leistung, obwohl wir feststellen, dass dies in einem größeren, komplexeren Netzwerk mit längeren Netzwerken der Fall ist Längen können diese Faktoren einen viel stärkeren Einfluss haben.

Wenn Sie in Ihrem Heimnetzwerk viele Dateien übertragen, empfehlen wir im Allgemeinen die Installation eines Gigabit-Netzwerks. Ein Upgrade von einem 100-Mbit/s-Netzwerk wird Ihnen eine schöne Leistungssteigerung bescheren; die Dateiübertragungsgeschwindigkeit wird sich zumindest verdoppeln.

Gigabit-Ethernet in Ihrem Heimnetzwerk kann zu größeren Leistungssteigerungen führen, wenn Sie Dateien von einem schnellen NAS-Speichergerät lesen, das Hardware-RAID verwendet. In unserem Testnetzwerk haben wir eine 4,3 GB große Datei in nur einer Minute übertragen. Bei einer 100-Mbit/s-Verbindung dauerte das Kopieren derselben Datei etwa sechs Minuten.

Gigabit-Netzwerke werden immer zugänglicher. Jetzt müssen wir nur noch darauf warten, dass die Geschwindigkeiten der Festplatten auf das gleiche Niveau steigen. In der Zwischenzeit empfehlen wir die Erstellung von Arrays, mit denen die Einschränkungen umgangen werden können moderne Technologien Festplatte. Dann können Sie mehr Leistung aus Ihrem Gigabit-Netzwerk herausholen.

Die Katze und ich haben das Twisted-Pair-Kabel, das in die Wohnung kam, ein wenig „verstreut“.

Es wird allgemein angenommen, dass die „Obergrenze“ von DSL bei 20–30 Mbit/s liegt, FTTB (Glasfaser zum Gebäude plus Twisted Pair zur Wohnung) bei 100 Mbit/s liegt und PON Geschwindigkeiten über 100 Megabit unterstützt. Meine Kollegen und ich beschlossen, mit den Mythen aufzuräumen und FTTB für einen einzigen Anbieter zu „übertakten“.

Als erstes kletterten wir auf den Dachboden des Hauses. Schon jetzt erreicht jedes Haus mindestens 1 Gbit/s, und der Heimknoten verfügt über einen geeigneten Gigabit-„Kupfer“-Port. Das heißt, wir können einfach jede Wohnung, in der sich unser Kabel befindet, nehmen und auf einen geeigneten Anschluss umstellen und so schnellere Geschwindigkeiten bereitstellen 400 Mbit/s.

Tatsächlich haben wir dies bereits im Rahmen von Betatests durchgeführt und kürzlich kommerzielle Dienste in Moskau mit neuen Geschwindigkeiten eingeführt. Ja, höchstwahrscheinlich können Sie eine Verbindung herstellen.

Was war das, Cap?

Unsere Backbone- und City-Netze verfügen über eine Reserve an freier Kapazität, die den Bedarf der Kunden auch in Zeiten höchster und maximaler Auslastung deutlich übersteigt. Nehmen Sie zum Beispiel den Feiertag, den meine Katze und ich so sehr lieben. Neues Jahr, in dem jene Großmütter weitere Glückwünsche erhalten, die sich bereits mit dem Internet und Skype angefreundet haben.

Was ist der Unterschied zu PON?

Tatsache ist, dass unser FTTB-Netzwerk, das uns all dies ermöglicht, bereits existiert. Keine Änderungen erforderlich. Das Kabel gelangt bereits in Ihre Wohnung. Alle Drähte sind da. Die Optik erreicht Knotenpunkte in Häusern. Sie müssen lediglich das Kabel nehmen und an einen anderen Anschluss am Switch anschließen. Alle! Ein solcher Kanal kommt bereits auf Sie zu, aber Sie wussten nichts davon. Und PON muss gebaut werden – das ist eine neue Infrastruktur in der ganzen Stadt. Es gibt noch einen weiteren Hinterhalt: Optische Kerne weichen von regionalen PBX-Anlagen ab, die proprietäre Client-Geräte erfordern. Aber mit einem regulären FTTB-Netzwerk können Sie alles nutzen. Allerdings gibt es nur wenige Geräte, die für L2TP geeignet sind.

Wie es funktioniert

Ein großer Transportkanal führt vom Hauptring bis zur Stadtebene. Weiter in der Stadt gibt es mehrere große Ringe. Daraus entstehen kleinere Ringe oder Netzstrukturen, auf der Eingangsebene entstehen „Sterne“. Von der ersten Ebene bis zum Schrank im Eingangsbereich besteht eine optische Verkehrsanbindung. Am Zugriffsebenenschalter schließen wir das Kabel wieder an einen Gigabit-Port an ... und fertig, wir haben jetzt eine Gigabit-Verbindung zum Client.

Das sind die Ergebnisse meines Kollegen ohne Katze, aber mit WLAN (801.11 ac).

Technische Machbarkeit

Nachdem ich dies an mehreren Stellen testen konnte, haben wir solche Links für alle an dem Projekt beteiligten Firmenmitarbeiter installiert. Ziemlich schnell, muss ich sagen. Es gibt fast keine technischen Einschränkungen: Das Einzige ist, dass es in Moskau buchstäblich ein paar Dutzend Blöcke gibt, in denen die Ausrüstung leicht modernisiert werden muss, aber wir arbeiten bereits daran.

Weitere Einschränkungen

Sie werden lachen, aber wir haben keine Möglichkeit gefunden, diese Geschwindigkeiten zu nutzen. Es stellte sich also heraus, dass ein solcher Kanal nur mit ganz bestimmten Aufgaben gefüllt werden kann – das ist entweder CCTV von mehreren Kameras oder HD-Video für alle Familienmitglieder gleichzeitig oder die Aufgaben eines Fotografen, der irgendwo Bilder hochlädt. Außerdem – Netzlaufwerke. Im Allgemeinen, mit Ausnahme von Torrents, ist es der Traum eines Anbieters: Der Kunde macht einmal am Tag einen „Knall“ mit einer schweren Datei und ist wahnsinnig glücklich.

Aber es sind noch eine Reihe anderer Dinge aufgetaucht, die einen direkten Bezug zum Marketing haben. Erstens liefern fast alle Ressourcen Inhalte viel langsamer, als der Kanal empfangen kann. Das ist das ewige Problem: „Warum ist mein Internet langsam, aber Tests zeigen normale Geschwindigkeit.“ Weil wir Ressourcen brauchen, die liefern können eine große Anzahl Bereitstellung von Inhalten für Kunden mit hoher Geschwindigkeit. Jemand muss also die Illusionen aufgeben; nicht jede Ressource erfüllt diese Anforderungen.
100 Mbit/s ist für die allermeisten Nutzer bereits eine sehr schnelle Internetverbindung. Für diejenigen, die mit sehr großen Dateien arbeiten müssen, können sogar noch höhere Geschwindigkeiten erforderlich sein.


Auf diesem Foto ist alles korrekt, auch der Router

Die Verbindung zum Desktop oder Laptop muss über Kupfer erfolgen – WLAN erlaubt, insbesondere bei Störungen durch andere Netzwerke, einfach keine Kanalverteilung mit dieser Geschwindigkeit. Deshalb Beste Option– Desktop über Kabel, Tablets und Telefone – per Flugzeug.

Auch die Endgeräte selbst können den Datenverkehr reduzieren. Selbstverständlich müssen Sie über ein Gerät verfügen, das 400 Mbit/s unterstützt (Router oder Netzwerkkarte). In der Beta-Phase gab es jedoch einige Überraschungen: Entgegen entsprechenden Aussagen können nicht alle Geräte mit solchem ​​Datenverkehr umgehen.

Tests

Hier beginnt der Spaß. Wir haben 10 Hochleistungsgeräte mit L2TP-Unterstützung genommen.

Gerade für den Heimgebrauch ist Gigabit schnell, daher müssen Router geeignet sein. Ich sage gleich, dass es nicht möglich war, alle Modelle abzudecken und schnell zu testen. Deshalb haben wir uns auf die Unterstützung einer Gigabit-Verbindung, Dualband-WLAN und gute Bewertungen von Benutzern konzentriert.

Unsere Shortlist:
Asus RT-68U
D-Link DIR 825 D1
Vorverkaufsmuster vom neuen Hersteller Totolink
Zyxel Keenetic Ultra
Apple Air Port Zeitkapsel

Nachdem ich die Geräte anhand unserer Checklisten im Büro getestet hatte, ging es an den Feldtest, hier können Sie die tatsächliche Leistung des Geräts beurteilen.

Für diese Aktion versuchte ich mich gründlich vorzubereiten, nahm ein MacBook Pro 15 Retina (Ende 2012) – meinen Hauptarbeitslaptop –, steckte eine 128-GB-SSD in einen separaten Desktop und schloss den Asus PCE-AC68 Wi-Fi-Adapter damit an den Stapel an Nichts würde das Übertakten stören, außerdem habe ich für alle Fälle den Totolink A2000UA USB-WLAN-Adapter mit 802.11ac-Unterstützung genommen. Außerdem habe ich ein iPad mini, ein iPhone 5 und ein Samsung Galaxy Note mitgebracht – wir werden dort WLAN testen.

Um die Geschwindigkeit zu überprüfen, habe ich zusätzlich zu den üblichen Ressourcen wie Geschwindigkeitstest und Datei-Download Iperf auf einem unserer Server installiert, der über eine Gigabit-Verbindung mit unserem Kernnetzwerk verbunden ist. Es scheint, als wäre alles ungefähr so ​​gelaufen:

Ein wenig über die Testmethodik

In vielen Router-Rezensionen, die ich gesehen habe, sind meist Stände mit Programmen zur Traffic-Generierung zusammengestellt. Wir beschlossen, es anders zu machen: Wir führten die Tests auf die gleiche Weise durch, wie ein Abonnent die Geschwindigkeit unseres Internetzugangs überprüfen würde.
Die wichtigsten Werkzeuge waren:
1) Speedtest.net – ohne kann man nicht leben
2) Mirror.yandex.ru
3) Iperf – ein wenig Synthetik
4) Youtube

Die Liste ist klein, aber anhand dieser Ressourcen können Sie sozusagen beurteilen, wie schnell der Internetzugang funktioniert natürliches Produkt und keine synthetischen Stoffe.

Beginnen wir mit dem Testen

Schauen wir uns zunächst an, welche WLAN-Netzwerke bereits in der Nähe sind

„Volks“-2,4-GHz-Band – nicht mehr und nicht weniger

5 GHz – wir haben es sogar geschafft, aber es gibt nicht viele Netzwerke, zwei davon gehören uns

Asus RT-68U


Top-Router von Asus. Die Hardware des Geräts weckt Respekt: ​​Ein Chip von Broadcom BCM4708A, 256 MB RAM, 128 MB Flash, Unterstützung für 802.11ac und Beamforming sind vorhanden.

Patchkabel: Der Geschwindigkeitstest ergab 224 Mbit/s für den Download und 196 Mbit/s für den Upload

Gutes Ergebnis, wir testen weiter, Iperf ist als nächstes dran.

Während dieses Tests passierte etwas Unerwartetes. Entweder begann der Router einen Fehler oder iperf, aber die Ergebnisse stiegen nicht über 50 Mbit/s. Kein Problem, schauen wir uns mehr an Lebenstest– Herunterladen einer Datei von Yandex.

Fast 35 MB pro Sekunde!

Ich habe die Tests noch ein paar Mal durchgeführt und dann beschlossen, die SSD zu reinigen; bei solchen Geschwindigkeiten verstopfte sie schnell.

Schauen wir uns nun an, wie schnell WLAN funktioniert. Drahtlose Netzwerke sind eine knifflige Sache und viele Faktoren können die endgültige Leistung beeinflussen. Der Laptop befand sich 4 Meter vom Router entfernt in einer geraden Linie.

Der Geschwindigkeitstest ergab fast 165 Mbit/s beim Download und 166 Mbit/s beim Upload. Würdig! Vor allem, wenn es um das 2,4-GHz-Band geht

Iperf zeigte ähnliche Werte:

Wechseln wir nun zu 5GHz. Da der Router mit 802.11ac arbeiten kann, mein Arbeits-Macbook jedoch nicht, habe ich einen externen Adapter angeschlossen, der 802.11ac 2x2 unterstützt.

Die Verbindung war erfolgreich... Werfen wir einen Blick auf den Geschwindigkeitstest:

209 Mbit/s beim Download, 111 beim Hochladen, höchstwahrscheinlich sind 210 Mbit/s die aktuelle Obergrenze für die Routerleistung über L2TP. Hoffen wir, dass Asus dies in der neuen Firmware behebt.

Iperf zeigte noch schlechtere Ergebnisse:

D-Link Dir 825 D1

Als nächstes folgt der Vertreter der Mittelpreisklasse D-Link DIR825. Der Router ist mit einem Dual-Band-WLAN-Modul ausgestattet, was in der mittleren Preisklasse derzeit eine Seltenheit ist. Mal sehen, wozu dieser Router fähig ist.

Verbindung über Patchkabel

Kommen wir zum Testen Wi-Fi-Netzwerke. Der Router verfügt über zwei Airgain-Antennen, sodass ich auch über WLAN hohe Geschwindigkeiten erwarte.

Für ein Netzwerk, das im 2,4-GHz-Bereich arbeitet:

Diese Frequenz ist maximal belastet, daher war dieses Ergebnis grundsätzlich zu erwarten. Wie wird sich 5GHz manifestieren?

130-150 Mbit/s. Beim genaueren Herumbasteln der Einstellungen stellte sich heraus, dass sich die Leistung erhöht, wenn man die WLAN-Netzwerkverschlüsselung deaktiviert. Natürlich habe ich Amerika nicht entdeckt, aber bei anderen Routern habe ich ein solches Muster nicht gefunden.

Kommen wir zum nächsten Testobjekt – Totolink

Dieser Router hat ähnliche Eigenschaften wie der D-Link DIR 825, sie basieren auf dem gleichen SoC – RTL8197D, aber in diesem Router unterstützt das Funkmodul 802.11ac. Es wird interessant sein, seine Fähigkeiten unter realen Bedingungen zu bewerten.

Patchkabel:

Äh... okay, ich lasse es kommentarlos.

Wir kommen der Realität näher.

Ehrlich gesagt hätte ich nicht gedacht, dass der „alte Mann“ RTL8197D in der Lage wäre, L2TP mit solchen Geschwindigkeiten durch sich selbst zu pumpen. Dies macht die Ergebnisse von Wi-Fi-Netzwerktests interessanter.

„Volks“-Frequenz – 2,4 GHz

Sowohl Speedtest als auch iperf zeigten nahezu identische Ergebnisse.
Bei 5 GHz sollte die Geschwindigkeit unerschwinglich sein! Vielleicht…

Aber nein, obwohl die Verbindung anzeigte, dass die Verbindung mit einer Geschwindigkeit von 867 Mbit/s hergestellt wurde.

Iperf versucht, ihn zu Boden zu bringen, und es gelingt ihm gut.

Unser neuester Marathonteilnehmer ist Zyxel Keenetic Ultra

Ein beliebtes Modell unter L2TP-Geräten. Es beschleunigt gut und arbeitet stabil. Wir schließen das Patchkabel an und führen den Geschwindigkeitstest durch:

Und ich werde die Fedora-Distribution herunterladen, die für die Dauer der Tests bereits nativ geworden ist:

Leider unterstützt dieses Modell von Zyxel 802.11ac nicht, sodass ich mich mit 802.11n zufrieden geben werde. Lass uns anfangen!

Schauen wir uns 5 GHz an

Weder mehr noch weniger – Standard. Diese Situation passte nicht zu mir und ich beschloss, eine neue Time Capsule mit Unterstützung für 802.11ac (sehr konventionell für das PCT-Modell) an den Router anzuschließen.

Hier! Schade, dass Hersteller ihren Routern keine Zeitkapsel beilegen.

Was wäre, wenn Sie die Geschwindigkeit auf einem Telefon/Tablet messen würden?

Die meisten Benutzer, insbesondere diejenigen, die mit den Methoden verschiedener Leistungstests nicht vertraut sind, starten die Anwendung einfach auf ihrem Telefon. Das werde ich auch tun.

Es standen ein iPhone, ein Tablet und ein Android-Telefon zur Verfügung. Es macht keinen Sinn, die Verbindung an jedem Router zu testen, daher habe ich mich für das neueste Routermodell entschieden.

Für 2,4 GHz bzw. 5 GHz haben wir hier die Leistungsobergrenze des Wi-Fi-Moduls des Telefons erreicht. Geräte auf Android zeigten ungefähr die gleichen Ergebnisse, während auf einem Tablet diese Geschwindigkeit erreicht wurde, wenn sie mit einem Netzwerk mit 5 GHz verbunden war; bei 2,4 GHz wird sie höchstwahrscheinlich niedriger sein:

Nun, Tests auf der Straße:

Was ist passiert?

Der Prozess des Testens des neuen Dienstes hat meine Katze und mich sehr fasziniert, sodass wir am Ende 10 Router verschiedener Hersteller und Preiskategorien mit unterschiedlicher „Füllung“ getestet haben. Hier sind die interessantesten:
  • Zyxel Keenetic Ultra
  • D-Link DIR825
  • Toto-Link
  • Asus RT-68U
  • Zyxel Keenetic Giga II
  • TP-Link Archer C7 v.1
  • D-Link DIR 850L
  • Buffalo WZR-1759DHP
  • Netgear R7000 „Highthawk“
  • arkadisch
Wenn Sie also zu Hause eine SSD oder ein RAID von einer Festplatte haben, gibt es diese gutes WLAN Router, und wenn Sie bestimmte Probleme lösen, die erforderlich sind schnelles Internet, dann wird Ihnen der neue Service nützlich sein.

Preis

Der Dienst ist neu, eine Beschreibung wird in ein paar Tagen auf der Website erscheinen. Die Kosten betragen 1850 Rubel pro Monat, ohne unseren Router.

UPD, laut Anfragen in den Kommentaren:

Asus RT-68U D-Link DIR 825 D1 Toto-Link Zyxel Keenetic Ultra
Über Kabel (WAN-LAN)
Geschwindigkeitstest D: 224,2 Mbit/s U: 196,77 Mbit/s
D: 352,16 Mbit/s U: 370,3 Mbit/s D: 462,6 Mbit/s U: 255,8 Mbit/s D: 408,22 Mbit/s U: 275,59 Mbit/s
Iperf 26,3 Mbit/s 354 Mbit/s 379 Mbit/s ~35 MB/s ~43 MB/s ~50 MB/s ~52 MB/s
WLAN 2,4 GHz
Geschwindigkeitstest D: 164,53 Mbit/s U: 165,68 Mbit/s D: 86,72 Mbit/s U: 57,82 Mbit/s D: 155,01 Mbit/s U: 118,62 Mbit/s D: 131,57 Mbit/s U: 113,53 Mbit/s
Iperf 140 Mbit/s 52,5 Mbit/s 152 Mbit/s 132 Mbit/s
WLAN 5GHz
Geschwindigkeitstest D: 209,4 Mbit/s U: 111,38 Mbit/s D: 148,27 Mbit/s U: 149,45 Mbit/s D: 233 Mbit/s U: 132,76 Mbit/s D: 185,4 Mbit/s U: 181,07 Mbit/s
Iperf 163 Mbit/s 130 Mbit/s 192 Mbit/s 171 Mbit/s

Massachusetts Technische Universität Im Mai 1993 wurde die weltweit erste Online-Zeitung „The Tech“ ins Leben gerufen.

Bis 2008 überstieg die Gesamtverteilungsgeschwindigkeit 172 Gbit/s, was einem Viertel des Gesamtverkehrs des Moskauer Verkehrsknotenpunkts MSK-IX entsprach. Etwa 3.000 Anfragen von Kunden pro Sekunde – 10 Millionen pro Stunde, 240 Millionen pro Tag. 40.000.000 Pakete pro Sekunde auf der Netzwerkschnittstelle. 15.000 Interrupts pro Sekunde. Im oberen Bereich befinden sich etwa 1200 Prozesse. Die Auslastung einer 8-Kern-Maschine beträgt zu Spitzenzeiten 10–12. Und dennoch gingen einige Anfragen zurück. Wir hatten keine Zeit zum Servieren. Leider finden moderne Bedeutung Der Peer-to-Peer-Verkehr ist fehlgeschlagen, wer weiß – zum Vergleich in den Kommentaren teilen.

Im August 2005 erschien in der Ukraine ein regionaler Tracker, torrents.net.ua. Die Notwendigkeit, eine Ressource zu erstellen, war auf den Mangel an schnellem und unbegrenztem Zugang zum globalen Datenverkehr für die meisten Benutzer in der Ukraine zurückzuführen.

Bis September 2008 war der Tracker für Benutzer außerhalb der UA-IX-Zone gesperrt, sodass die Anzahl der Benutzer nur langsam wuchs.

Die ersten Hosting-Anbieter

Wie sieht es mit Website-Hosting aus? Hosting-Anbieter als solche gab es zunächst nicht. Die Websites wurden auf Servern von Universitäten und Organisationen mit ständiger Verbindung zum Internet gehostet. Heutzutage ist es ziemlich problematisch, zu verfolgen, was im Zeitraum 1991-1995 geschah. Im Jahr 1995 bot der Angelfire-Dienst bis zu 35 KB kostenlosen Speicherplatz für Benutzerseiten an, und GeoCities sogar 1 MB. Weitere Informationen zu den ersten Schritten des Hostings finden Sie im gleichnamigen Artikel „Erste Schritte des Hostings“, der bereits früher auf unserem Blog veröffentlicht wurde und heute vielleicht einer der vollständigsten ist.

200 $/Monat für 200 MB Serverkontingent und 3000 MB ausgehenden Datenverkehr (mindestens 500 MB). Tarifplan) und Datenverkehr über dem Limit wurde mit 55 bis 27 US-Dollar pro GB bezahlt. Sie könnten auch eine „Standleitung“ für Ihre Website anschließen, die Tarife waren wie folgt: 128.000 – 395 $/Monat, 384.000 – 799 $/Monat, 1M – 1200 $/Monat. Für die Anbindung eines „Kanals“ und die Aktivierung des Hostings ist außerdem eine Installationsgebühr in Höhe von etwa einer Monatsgebühr enthalten. Ende 2000 bot derselbe Anbieter unbegrenzten Speicherplatz gegen Bezahlung nur für den Datenverkehr an und senkte die Kosten für den Datenverkehr auf 40 US-Dollar für 20 GB. Und bereits im Jahr 2002 senkte er die Zölle auf 20 US-Dollar, machte den Verkehr „unbegrenzt“ und führte wieder Quotenbeschränkungen ein.

Interessant sind auch die Preise für die Miete der ersten dedizierten Server im Jahr 2000:

Ein Server mit einer 8-GB-Festplatte sieht heute wie ein echtes „Fossil“ aus. Aber was soll ich sagen, ich persönlich habe vor 2004 PCs mit Festplatten verwendet, bei denen das nutzbare Kontingent bei etwa 7 GB lag. Und natürlich sieht es jetzt schrecklich aus, mehr als 5.000 US-Dollar pro Monat für 6 Mbit/s an den Server zu zahlen. Später wurde der Preis auf 300 $/Mbit gesenkt, aber er war immer noch nicht niedrig.

Es versteht sich von selbst, dass die Senkung der Konnektivitätspreise und der Kosten für den Internetzugang auf die steigende Zahl der Abonnenten und den Bau neuer Kommunikationskanäle, einschließlich optischer Unterwasserautobahnen, zurückzuführen ist. Wenn man sich mit der Komplexität der Kabelverlegung entlang des Meeresbodens konfrontiert sieht und die ungefähren Kosten des Projekts ermittelt, wird einem klar, warum 1 Mbit/s über den Atlantik 300 US-Dollar pro Monat oder sogar mehr kosten könnte. Mehr über die Geschichte der Entwicklung von Backbone-Unterwasser-Internetnetzwerken erfahren Sie in unserem Artikel:

In der Ukraine und der Russischen Föderation begann der Prozess des Hostings eigener Websites möglicherweise mit dem kostenlosen Hosting von narod.ru von Yandex im Jahr 2000:

Es gab auch ein ähnliches Projekt von mail.ru - boom.ru, aber dieses kostenlose Hosting erhielt nicht die gleiche Verbreitung wie The People. Anschließend wurde das kostenlose Yandex-Hosting vom erfolgreichsten kostenlosen Website-Builder und Hosting der Jahre 2008-2010 – „uCoz“ – übernommen und für die Domain narod.ru ist es nun möglich, eine Website mit den „uCoz“-Tools zu erstellen. „Yandex“ hat „People“ aufgrund der Entwicklung aufgegeben soziale Netzwerke und vermindertes Interesse an der Dienstleistung, eigene Websites zu erstellen.

Bis 2002 war es in der Ukraine rentabel, eigene Server nur bei Heimnetzwerkanbietern zu hosten, obwohl die meisten ihre Server aufgrund des sehr teuren Datenverkehrs für den Kollokationsdienst in Büros und sogar zu Hause behielten, obwohl dies gegen die Nutzungsbedingungen verstieß Heimabonnenten. Viele Leute zogen es einfach vor, für diese Zwecke normale Desktop-Computer zu verwenden und kein Geld für „Server“-Hardware auszugeben. Solche Ältesten gibt es noch heute. Aber wenn es damals möglich war, zu verstehen, warum man „Gastgeber“ für sich selbst zu Hause machen wollte, ist es heute schwer zu verstehen. Und wir sprechen hier nicht von Leuten, die gerne etwas testen und dafür einen Server zu Hause brauchen.

Im Ausland war die Situation besser, da dort das Internet früher für die Bevölkerung verfügbar war und der Entwicklungsprozess früher begann. Die Niederlande entwickeln sich nach und nach zu einem „Mekka“ für das Hosting von Servern, da sie über eine gute geografische Lage verfügen, was Konnektivität zu vielen Betreibern, niedrige Strompreise und eine günstige Gesetzgebung bedeutet, die das Wachstum des IT-Sektors fördert.

Deshalb beschlossen zwei Piloten einer kommerziellen Fluggesellschaft 1997, ein Unternehmen zu gründen, das anderen Unternehmen helfen sollte, im Internet präsent zu sein, indem es ein Internetverzeichnis erstellte und außerdem Dienste für die Erstellung und das Hosting von Websites sowie die Verbindung zum Internet bereitstellte. Das Internetarchiv bewahrte eine Version der Website aus dem Jahr 1998 auf, die jedoch außer dem Kontakt nichts enthielt:

Obwohl es, wie wir sehen, einen weiteren Schritt gab – die Menge des enthaltenen RAM wurde standardmäßig viel geringer :)

Gleichzeitig erkannte Volya, einer der größten Kabel-Internet- und Fernsehanbieter in der Ukraine, dass der Bau eines eigenen Rechenzentrums ein großer Bedarf war. Da Heim-Internet-Abonnenten hauptsächlich Datenverkehr „herunterladen“, bleibt der ausgehende Kanal praktisch frei und ungenutzt. Und das sind Hunderte Megabit, die leicht verkauft werden könnten, indem man dedizierte Server für Abonnenten aufstellt. Außerdem ist es möglich, einiges zu sparen, da viele Abonnenten Ressourcen im Rechenzentrum nutzen könnten, anstatt von teuren ausländischen Servern herunterzuladen.

So entstand das Rechenzentrum Volya, das bereits 2006 folgende Voraussetzungen bot:

Tatsächlich wird ukrainischer Verkehr ohne Abrechnung angeboten, mit Zahlung für den verbrauchten ausländischen Verkehr. Bemerkenswert ist, dass der eingehende Auslandsverkehr um eine Größenordnung teurer war als der ausgehende Verkehr, was verständlich ist, da er von heimischen Internet-Abonnenten genutzt wurde. Außerdem ist der Anforderungsverkehr bei Servern, die Datenverkehr erzeugen, in der Regel gering und liegt zwischen 2 und 30 % des ausgehenden Datenverkehrs, abhängig von der Art der auf dem Server gehosteten Ressourcen.

Wenn es sich also um Webseiten mit einer großen Anzahl von Elementen handelt, ist die Menge des Anforderungsverkehrs höher, da das erfolgreiche Laden jedes Elements bestätigt wird, was zu einem Anstieg des Wachstums des auf dem Server eingehenden Datenverkehrs führt. Außerdem kann eingehender Datenverkehr von Abonnenten generiert werden, wenn sie etwas auf den Server hochladen. Beim Herunterladen von Dateien ist der Prozentsatz des eingehenden Datenverkehrs unbedeutend und beträgt in den meisten Fällen weniger als 5 % des ausgehenden Datenverkehrs.

Interessant ist auch, dass das Hosten eines eigenen Servers im Volya-Rechenzentrum einfach unrentabel ist, da die Kosten die gleichen sind wie bei der Miete. Tatsächlich bietet das Volya-Rechenzentrum je nach gewähltem Tarifplan Server verschiedener Klassen kostenlos zur Miete an.

Warum können Server kostenlos sein? Die Antwort ist ganz einfach. Die Ausrüstung ist standardisiert und wird in großen Mengen eingekauft. Tatsächlich ist alles in dieser Version einfacher zu warten, einfacher zu verwalten und zu automatisieren und es sind weniger Arbeitsstunden erforderlich. Bei der Platzierung von Abonnentenservern auf „Colo“ treten eine Reihe von Problemen auf, angefangen bei der Tatsache, dass der Server möglicherweise nicht dem Standard entspricht und möglicherweise nicht in das Rack passt. Sie müssen mehr Einheiten für die Platzierung zuweisen als ursprünglich geplant oder dies ablehnen Der Abonnent führt einen nicht standardmäßigen Fall an und endet damit, dass es notwendig ist, dem Abonnenten den Zutritt zur Website zu ermöglichen und ihm Gelegenheit zum Verhalten zu geben körperliche Arbeit mit dem Server, lagern Sie Ersatzkomponenten vor Ort und benachrichtigen Sie die Techniker, falls ein Austausch erforderlich ist.

Somit erweist sich die Wartung von „Colo“ als teurer und es macht keinen Sinn, es für ein Rechenzentrum zu niedrigeren Tarifen bereitzustellen.

In Russland gingen die Rechenzentren zu dieser Zeit noch einen Schritt weiter und begannen, bedingt unbegrenzten Datenverkehr kostenlos anzubieten. Agave bietet beispielsweise folgende Konditionen an:

Der ein- und ausgehende Datenverkehr ist unbegrenzt und völlig kostenlos. Folgende Bedingungen müssen erfüllt sein:

Eingehender Verkehr sollte 1/4 nicht überschreiten von ausgehend.
Ausgehender Auslandsverkehr sollte nicht größer sein als der ausgehende Russe.
Hinweis: Der Verkehr wird je nach geografischer Lage in russischen und ausländischen Verkehr unterteilt.
Bei Nichteinhaltung dieser Bedingungen fallen folgende Tarife an:

Bei einer Überschreitung des Eingangsvolumens um 1/4 des Ausgangsvolumens wird ein Satz von 30 Rubel/GB vergütet.
Der Überschuss an ausgehenden Ausländern gegenüber ausgehenden Russen wird mit einem Satz von 8,7 Rubel/GB vergütet


Es ist bemerkenswert, dass sie sich zur Vereinfachung der Abrechnung im Rechenzentrum nicht mit der Liste der Netzwerke beschäftigt haben, die nicht zu MSK-IX, SPB-IX (Verkehrsaustauschpunkte in Moskau und St. Petersburg) gehören, die darüber hinaus vorhanden sind sind sich seit langem einig, um eine gute Anbindung zwischen St. Petersburg und M9 bzw. M10 (Verkehrsknotenpunkte in Moskau) und umgekehrt zu gewährleisten. Da das Internet in den Regionen noch nicht weit verbreitet war und der Anteil des Datenverkehrs, insbesondere über Mietleitungen, sehr gering war. Was soll ich sagen, Norilsk erhielt erst im September 2017, also erst in diesem Jahr, eine eigene Glasfaser und war damit die letzte große russische Stadt, die eine eigene Glasfaserleitung erhielt! Die Kosten des Projekts betrugen rund 40 Millionen US-Dollar, die Gesamtlänge der Glasfaserleitung von Nowy Urengoi beträgt 986 km, die Kapazität beträgt 40 Gbit/s mit der Möglichkeit einer Erweiterung auf 80 Gbit/s in der Zukunft.

Es ist lustig zu sehen, wie manche Menschen sich im Jahr 2017 freuen können hoch Geschwindigkeits Internet, das den meisten von uns seit über 10 Jahren zur Verfügung steht:

Nun, erstens habe ich bereits angefangen, YouTube anzuschauen, davor habe ich es einmal im Jahr angeschaut, als ich nach Moskau ging. Ich habe es einfach so geöffnet ... und sie konnten mich nicht herausholen, aber wenn ich auch zu Torrent gegangen bin und etwas heruntergeladen habe, dann war's das ... Und jetzt kann ich in Ruhe zuschauen. Nehmen wir an, es kommt ein Video heraus, ich schaue es mir einmal pro Woche an und muss mir nicht alle Informationen auf einmal ansehen. Und ich kann mit Leuten über Skype kommunizieren! Das ist absolut klar! Ich laufe so und filme: „Ich komme, Leute, schaut mal, es ist Winter!“, das einzig Negative ist, dass sich das IPhone bei Kälte ausschaltet.

Ein ausführliches Video zum FOCL-Projekt selbst können Sie hier ansehen: Teil 1 , Teil 2 , Teil 3 , Teil 4. Bedenken Sie nur, dass die Journalisten Ungenauigkeiten gemacht haben: Derselbe Satellitenkanal erreichte ihrer Meinung nach nur 1 Gbit/s pro Stadt, obwohl der Gesamtverkehr vor der Einführung der Glasfaser-Kommunikationsleitungen tatsächlich etwa 2,5 Gbit betrug /S. Nun, Sie müssen verstehen, dass das Problem nicht nur in der Geschwindigkeit lag, sondern auch im hohen Ping, der bei der Verwendung erreicht wurde Satelliten-Internet, worauf ich noch einmal zurückkam zum Zeitpunkt des Unfalls auf der Glasfaserleitung.

Ende 2006 erschienen in der Russischen Föderation die ersten Websites mit Online-Filmen, File-Hosting-Diensten und ähnlichen Ressourcen, und zwar um die Kosten des Auslandsverkehrs zu senken, da der ukrainische Verkehr beeindruckend sein kann und nicht in die Verhältnisse passt Von derselben Agave vorgeschrieben, handelt es sich bei einigen Servern um große Projekte. Sie versuchen, sie in Rechenzentren mit einer Verbindung zu UA-IX zu platzieren oder künstlich zusätzlichen russischen Datenverkehr zu erzeugen, indem sie Torrents verwenden, die ausschließlich an russische Benutzer verteilt wurden, und in einigen Fällen Dateien Hosting-Dienste, die ausschließlich für russische IP-Adressen verfügbar waren. Als Folge davon kauften viele Benutzer russisches VPN, wenn sie in der Ukraine vollständig und mit guter Geschwindigkeit herunterladen wollten, da die Geschwindigkeit für dasselbe ifolder.ru immer höher war Russische Föderation:

File-Hosting-Dienste erfreuen sich trotz der Beliebtheit von Torrents einer explosionsartigen Beliebtheit, da die Download-Geschwindigkeit bei ihnen oft viel höher ist als bei der Verwendung von Torrents und keine Notwendigkeit besteht, Verteilungen durchzuführen und eine Bewertung beizubehalten (wenn Sie mehr geben, als Sie herunterladen). oder zumindest nicht mehr als dreimal weniger). Dies ist alles auf den asymmetrischen DSL-Kanal zurückzuführen, bei dem die Upload-Geschwindigkeit deutlich niedriger war als die Empfangsgeschwindigkeit (zehnmal oder mehr), und wir dürfen nicht vergessen, dass nicht jeder Benutzer viele Dateien auf seinem Computer „säen“ und speichern wollte.

So zahlte Wnet dem Abonnenten für ukrainischen Datenverkehr 1 US-Dollar pro GB, während ausländischer Datenverkehr den Abonnenten 10 US-Dollar pro GB kostete, vorausgesetzt, dass das Verhältnis von ausgehendem zu eingehendem Datenverkehr 4/1 betrug. Natürlich war dies immer noch eine erhebliche Gebühr, denn der Verkehr war nur dann kostenlos, wenn es zehnmal mehr ukrainischen Verkehr gab. Um also kostenlose 9 Mbit/s ins Ausland zu generieren, war es notwendig, 90 Mbit/s in die Ukraine zu generieren. Das war völlig anders als der Vorschlag von Agave, bei dem es ausreichte, dass der ausländische Verkehr den russischen Verkehr nicht überstieg.

Daher war das zuvor in Betracht gezogene Angebot des Rechenzentrums Volya deutlich profitabler als das Angebot von Wnet, das zudem am 1. Oktober 2006 beschloss, sich vom ukrainischen Verkehrsaustauschpunkt UA-IX zurückzuziehen, da UA-IX dies ablehnte mehr Ports verkaufen, als Wnet benötigte, möglicherweise als Ergebnis eines „Peer-to-Peer-Krieges“, nämlich Lobbying für die Interessen anderer Anbieter, mit denen Wnet zu konkurrieren begann, und möglicherweise aufgrund des Fehlens dieser Anbieter. die Möglichkeit, zusätzliche Ports bereitzustellen, oder vielleicht weil „Wnet“ gegen die Vereinbarung verstoßen und Peer-to-Peer-Verbindungen mit anderen Teilnehmern am Austauschpunkt aufgebaut hat (ein Merkmal der Austauschregeln).

Dank dessen verfügte Wolja im Jahr 2008 bereits über eine 20-Gbit/s-Verbindung in UA-IX und 4 Gbit/s zur Welt von mehreren Backbone-Betreibern. Weitere Entwicklung Der Markt für Hosting-Dienste lässt sich bereits in unserer Geschichte verfolgen:

Seit wir 2006 mit der Bereitstellung von Hosting-Diensten für Benutzer unserer Ressource begonnen haben, haben wir die Dienste seit Juli 2009 in ein separates Projekt aufgeteilt – ua-hosting.com.ua, das in Zukunft das internationale Niveau erreichte und vollständig ins Ausland verlagert wurde jetzt unter der Marke ua-hosting.company bekannt und über die Kurzdomain http://ua.hosting verfügbar.

Es ist erwähnenswert, dass der Markt in den letzten 10 Jahren enorme Veränderungen erfahren hat, und der Grund dafür ist nicht nur eine deutliche Reduzierung der Kosten der Hauptkanäle, sondern auch eine Umverteilung des Publikums auf viele Projekte aufgrund der Schließung von einst beliebte Projekte. Erfolgreiche Ressourcen wie File-Hosting-Dienste, die im Alexa-Ranking hinsichtlich des Datenverkehrs die Spitzenplätze belegten, gerieten aus vielen Gründen in Vergessenheit, vor allem aber aufgrund des anhaltenden Krieges mit Urheberrechtsinhabern.

So erzeugte in der Ukraine der einst berühmte ex.ua über 15 % des Gesamtverkehrs des ukrainischen Austauschpunkts UA-IX (im Wesentlichen ein Verkehrsaustauschpunkt in Kiew, da regionale Betreiber insbesondere mit dem Aufkommen des Austauschs selten vertreten waren). point Giganet und DTEL-IX) wurde nach der Schließung des nicht minder berühmten fs.to geschlossen, das einst 100 Gbit/s in den Niederlanden von uns kaufte. Und der Fall mit der einst berühmten Megaload-Aktion erregte noch größeres Aufsehen, als über 600 Server dieses File-Hosting-Dienstes aus dem Rechenzentrum in den Niederlanden, in dem wir ansässig sind, beschlagnahmt wurden. Rutracker wurde in der Russischen Föderation von Roskomnadzor blockiert und torrents.net.ua existierte in der Ukraine aus Angst vor Repressalien nicht mehr.

Das Publikum besuchte Youtube, Instagram und andere soziale Netzwerke. Netzwerke. Websites für ein erwachsenes Publikum haben vielleicht nicht an Popularität verloren, nur dass das Geldverdienen mit Teaser-Werbung für unsere Webmaster aus der Russischen Föderation und der Ukraine aufgrund der hohen Preise für Werbung und der Bezahlung ausländischer Kanäle, deren Preis ansteigt, jede Bedeutung verloren hat , übrigens ist im Vergleich zu 2012 deutlich zurückgegangen, als es schien, dass es nicht billiger werden könnte, wurde es ziemlich problematisch.

Die Situation auf dem Backbone-Markt, die die relativen Kosten der Verkehrsbereitstellung bestimmt

Wie wir nach der Lektüre der oben dargestellten Informationen verstehen konnten, hängt der Preis des Internetverkehrs davon ab, an welchen Punkt der Verkehr geliefert werden muss, wie beliebt diese Richtung ist, mit welcher Geschwindigkeit und mit welcher Geschwindigkeit die Daten an den Stream übertragen werden müssen Was für eine Verzögerung. Außerdem hängt der Preis davon ab, über welche Kommunikationskanäle der Verkehr geleitet wird. Dadurch wird bestimmt, wie direkt die Route ist und welche Priorität der Verkehr in einem bestimmten Fall haben wird, was wiederum den endgültigen Latenzwert (Ping) bestimmt von einem Punkt zum anderen.

Beispielsweise werden 10 Gbit/s von Nowy Urengoi nach Norilsk eindeutig nicht 2.000 US-Dollar pro Monat oder sogar 6.000 US-Dollar pro Monat kosten, da über 40 Millionen US-Dollar in den Bau von Glasfaser-Kommunikationsleitungen investiert wurden. Das Projekt soll 15 zurückgezahlt werden Jahre, also betragen die monatlichen Kosten des Kanals 40 Gbit/s 40/15/12 = 0,22 Millionen US-Dollar oder 55.000 US-Dollar/Monat für 10 Gbit/s und dies ist noch kein Kanal zum Internet, sondern nur die Kosten für die Bereitstellung des Datenverkehrs über eine hochwertige Glasfaserleitung zwischen zwei abgelegenen Orten. Und dieses Geld muss nun der Bevölkerung von Norilsk abgenommen werden, die sich dasselbe YouTube ansehen wird (der Verkehr zu dem noch mehr kosten wird, da für die Zustellung an Youtube-Netzwerke Autobahnen bezahlt werden müssen), also der Verkehr von dort wird ziemlich teuer sein und die Aktivität der Bevölkerung dort wird durch diesen Preis eingeschränkt. Es besteht die Möglichkeit, dass YouTube seinen Nutzern „näher“ sein möchte und stattdessen einen Teil der Kosten für den Kanal an sie zahlen möchte. In diesem Fall könnten die Kosten für den Zugriff auf die Youtube-Ressource für die Bevölkerung von Norilsk höher ausfallen untere. Dieses Beispiel zeigt deutlich, wie hoch der Preis für den Zugang zu bestimmten Internetressourcen sein kann. Jemand zahlt immer für Ihren Datenverkehr, und wenn Sie es nicht sind, dann sind es entweder Werbetreibende und Ressourcen, die diesen Datenverkehr generieren, oder ein Backbone-Anbieter oder einfach ein Internetanbieter, der vom Datenverkehr aus dieser Richtung profitiert (z. B. um Rabatte auf andere zu erhalten). Wegbeschreibungen oder ähnliches Steuervorteile, was im Fall von Norilsk von Vorteil sein kann oder einfach deshalb, weil ein ziemlich breiter Kanal gekauft wurde, um einen Rabatt auf die Verkehrszustellung zu erhalten, und dieser ungenutzt ist.

Backbone-Betreiber der Stufe I, wie Cogent, Telia, Level 3, Tata und andere, zeichnen sich dadurch aus, dass sie für die Bereitstellung des Datenverkehrs von allen, die mit ihnen verbunden sind, Geld verlangen, weil Verkehrsgeneratoren Angst haben, Datenverkehr mit Anbietern auszutauschen, bei denen sie sich befinden Das Publikum befindet sich direkt. So kommt es zu Situationen, in denen sogenannte Peering-Kriege entstehen, auch zwischen Fernleitungsbetreibern der ersten Ebene und großen Erzeugern, in denen bestimmten Verbrauchern Vorrang eingeräumt wird, während für andere der Preis der Zusammenarbeit künstlich in die Höhe getrieben werden kann, um einen Konkurrenten zu vernichten. oder oder einfach zur Bereicherung, da der Traffic-Generator einfach keine anderen Möglichkeiten hat. Daher kam es sehr oft zu Streitigkeiten bis hin zu Rechtsstreitigkeiten, da einige Unternehmen die Netzneutralität nicht wahrten und versuchten, dies auf sehr verschleierte Weise zu erreichen.

Somit ist der Streit zwischen Cogent und Google bezüglich des Datenverkehrs über das IPv6-Protokoll immer noch nicht beigelegt, weshalb ein Peering zwischen Unternehmen für den direkten Austausch schlichtweg unmöglich ist. Cogent verlangt von Google Geld für den Datenverkehr in seinem Netzwerk, aber Google möchte kostenlos schlemmen, da die Masse der Cogent-Abonnenten (Rechenzentren, Heim-Internetanbieter) aktive Konsumenten des Datenverkehrs aus Google-Netzwerken sind, obwohl IPv4 übrigens nicht IPv6, was die Latenz verringern und die Verkehrskosten für diese Teilnehmer senken würde, sofern der Prozentsatz des IPv6-Verkehrs steigt. Für Cogent ist dies jedoch offenbar unrentabel, da es sich um einen Backbone-Anbieter der Stufe I handelt und der externe Datenverkehr aus seinen Netzwerken von Backbone-Anbietern der Stufe 2 (sie zahlen Backbone-Anbieter der Stufe 1 und erzielt Gewinne von Anbietern der Stufe 3) und sogar von Stufe 2 bezahlt wird 3 (sie bezahlen Tier-2-Anbieter und erhalten Geld von Endkunden).

Um zu verstehen, woraus sich der Endpreis des Datenverkehrs für eine Ressource zusammensetzt, betrachten wir die Situation anhand eines Beispiels beliebter Dienst Cloudflare, dessen Kern darin besteht, Websites „näher“ an ihr Publikum zu bringen, trägt dazu bei, die Belastung der Infrastruktur zu verringern, indem es statische Informationen zwischenspeichert und mögliche DDOS-Angriffe herausfiltert.

Natürlich platziert Cloudflare Server in allen Regionen, in denen Traffic-Nachfrage besteht, also fast auf der ganzen Welt. Und um Datenverkehr einzusparen, versucht das Unternehmen, Peering-Vereinbarungen mit regionalen Anbietern abzuschließen, die den Datenverkehr von Cloudflare kostenlos an Benutzer weiterleiten können, und umgeht damit teure Tier-I-Backbone-Betreiber, die ohnehin Gebühren für den Datenverkehr erheben. Warum ist das für lokale Anbieter von Vorteil? Bei einem erheblichen Traffic-Volumen müssen sie, genau wie Cloudflare, Tier-I-Betreiber, erhebliche Geldbeträge für die Bereitstellung von Traffic bezahlen. Es ist viel profitabler, Ihren Kanal „direkt“ zu verbinden (einmal in den Aufbau zu investieren) und Traffic kostenlos zu erhalten. anstatt jeden Monat viel Geld an den Backbone-Betreiber zu zahlen. Selbst in Fällen, in denen direktes Peering nicht möglich ist, kann es rentabler sein, eine Verbindung über die Netzwerke anderer Transitanbieter herzustellen, bei denen die Verkehrskosten viel niedriger sind als die Verkehrskosten bei der Übertragung über Tier I. Ja, die Route wird Nicht sehr direkt, der Ping kann leicht ansteigen und die Übertragungsgeschwindigkeit kann pro Fluss leicht sinken, aber die Qualität kann immer noch akzeptabel sein, um solche Einsparungen zu erzielen.

Es ist jedoch nicht immer möglich, Peering-Vereinbarungen abzuschließen. Dennoch ist Cloudflare in einigen Regionen gezwungen, einen relativ großen Prozentsatz der Konnektivität von Backbone-Anbietern zu kaufen, und der Preis für den Datenverkehr variiert je nach Region erheblich. Im Gegensatz zu einigen Cloud-Diensten wie Amazon Web Services (AWS) oder herkömmlichen CDNs, die den Datenverkehr häufig auf Terabyte-Ebene bezahlen, zahlt Cloudflare für die maximale Nutzung eines Kanals über einen bestimmten Zeitraum (den sogenannten „Verkehrsfluss“) “), basierend auf der maximalen Anzahl von Megabit pro Sekunde, die während eines Monats von einem der Backbone-Anbieter genutzt wird. Diese Abrechnungsmethode wird als Burstable bezeichnet und ein Sonderfall ist das 95. Perzentil. Das 95. Perzentil ist eine Methode zur Bereitstellung von Flexibilität und Batch-Nutzung der Kanalbreite. Dadurch kann der Dienstnutzer die im Tarif festgelegte Bandbreite um 5 % der Gesamtnutzungszeit des Kanals überschreiten, ohne die Kosten zu erhöhen. Wenn Ihr Tarif beispielsweise die Nutzung einer Bandbreite von 5 Mbit/s vorsieht, darf die maximal zulässige Kanalbreite jeden Monat um 36 Stunden (5 % von 30 Tagen) überschritten werden. Die genutzte Bandbreite wird einen Monat lang alle 5 Minuten gemessen und als Durchschnittswert über diesen kleinen Zeitraum von fünf Minuten aufgezeichnet. Die in jedem Zeitintervall genutzte Bandbreite wird gemessen, indem die während des Intervalls übertragene Datenmenge durch 300 Sekunden (die Dauer des angegebenen Intervalls) geteilt wird. Am Ende des Monats werden 5 % der Maximalwerte entfernt, dann wird aus den restlichen 95 % die Maximalzahl ausgewählt und dieser Wert wird zur Berechnung der Zahlung für die Kanalbreite verwendet.

Es gibt eine Legende, dass in Anfangszeit Seit seiner Gründung hat Google 95-Perzentil-Verträge verwendet, um die Indizierung mit sehr hohem Durchsatz während eines 24-Stunden-Zeitraums durchzuführen. In der übrigen Zeit war die Verkehrsverbrauchsintensität viel geringer, was zu erheblichen Kosteneinsparungen bei den genutzten Kanälen führte. Eine kluge, aber zweifellos nicht sehr dauerhafte Strategie, da wir in der Folge noch eigene Rechenzentren und sogar Kanäle aufbauen mussten, um Ressourcen häufiger zu indizieren und weniger für den interkontinentalen Transportverkehr zu bezahlen.

Eine weitere „Feinheit“ besteht darin, dass Sie Backbone-Anbieter in der Regel für den vorherrschenden Datenverkehr (eingehend oder ausgehend) bezahlen, was Ihnen im Fall von CloudFlare ermöglicht, vollständig für den eingehenden Datenverkehr zu bezahlen. Schließlich handelt es sich bei CloudFlare um einen Caching-Proxy-Dienst, wodurch die Ausgabe (Out) die Eingabe (In) normalerweise um etwa das 4- bis 5-fache übersteigt. Daher wird die Bandbreite ausschließlich auf der Grundlage der Werte des ausgehenden Datenverkehrs berechnet, sodass Sie die Zahlung für die Eingabe vollständig vermeiden können. Aus dem gleichen Grund erhebt der Dienst keine Gebühren zusätzliche Gebühr wenn die Website einem DDOS-Angriff ausgesetzt ist. Der Angriff wird sicherlich den Verbrauch des eingehenden Datenverkehrs erhöhen, aber solange der Angriff nicht sehr groß ist, wird der eingehende Datenverkehr den ausgehenden Datenverkehr trotzdem nicht übersteigen und daher werden die Kosten der verwendeten Kanäle nicht steigen.

Der größte Teil des Peer-to-Peer-Verkehrs ist normalerweise kostenlos, was man nicht über den Verkehr des Netflix-Dienstes sagen kann, der nach vielen Debatten gezwungen war, Verizon und Comcast für Peer-to-Peer-Einbindungen zu bezahlen, um dies zu tun Bereitstellung der Möglichkeit für akzeptables Video-Streaming für Benutzer aus den Netzwerken dieser Betreiber.

Im Diagramm oben können wir sehen, wie die Zahl der kostenlosen Cloudflare-Peering-Einbindungen im Laufe von drei Monaten zunimmt, sowohl mit IPv4- als auch mit IPv6-Versionen des Internetprotokolls. Und unten können wir, ebenfalls innerhalb von 3 Monaten, das weltweite Wachstum des Cloudflare-Peering-Verkehrs beobachten, der derzeit über 3.000 Peering-Einschlüsse nutzt und etwa 45 % der Kosten für den teuren Backbone-Transitverkehr einspart.

Cloudflare gibt nicht genau bekannt, wie viel es für den Transit-Backbone-Verkehr bezahlt, liefert aber Vergleichswerte aus verschiedenen Regionen, aus denen wir einen ungefähren Rückschluss auf die Höhe der Kosten ziehen können.

Schauen wir uns zunächst Nordamerika an. Nehmen wir an, dass wir einen gemischten Durchschnitt aller Transitanbieter von 10 US-Dollar pro Mbit/s und Monat als nordamerikanischen Benchmark verwenden. In der Realität wird die Zahlung unter diesem Betrag liegen und vom Volumen sowie vom gewählten Backbone-Betreiber abhängen, sie kann jedoch als Maßstab für den Kostenvergleich mit anderen Regionen dienen. Wenn wir diese Zahl akzeptieren, kostet jedes 1 Gbit/s 10.000 US-Dollar pro Monat (vergessen Sie auch hier nicht, dass dieser Wert höher ist als der tatsächliche Wert und in der Regel bei einem Einzelhandelskauf typisch ist). Vergleichszahl, die es Ihnen ermöglicht, den Unterschied zu verstehen).

Der effektive Preis für Bandbreite in einer Region setzt sich aus einer Mischung aus Transitkosten (10 USD pro Mbit/s) und Peering (0 USD pro Mbit/s) zusammen. Jedes über ein Peering übertragene Byte ist ein potenzielles Transitbyte, für das Sie nicht bezahlen müssen. Nordamerika hat zwar einige der niedrigsten Transitpreise der Welt, weist aber auch niedrigere durchschnittliche Peering-Raten auf. Die folgende Grafik zeigt die Beziehung zwischen Peering- und Transitverkehr in der Region. Und obwohl sich Cloudflare in den letzten drei Monaten verbessert hat, hinkt Nordamerika beim Peering immer noch allen anderen Regionen der Welt hinterher.

Während der Anteil des Cloudflare-Peering-Verkehrs weltweit 45 % übersteigt, beträgt er in der nordamerikanischen Region nur 20–25 %, sodass die effektiven Kosten für 1 Mbit/s ohne Rabatte 7,5–8 $ pro Mbit/s betragen. Damit ist Nordamerika im Weltranking der Regionen mit dem günstigsten Verkehr die zweitgrößte Region. Aber wo ist der Verkehr am günstigsten?

Wir haben uns bereits Europa angesehen, wo es aufgrund der historischen Konzentration der Bevölkerung in bestimmten Regionen schon seit sehr langer Zeit viele Umtauschpunkte gibt, weshalb es möglich ist, einen größeren Prozentsatz davon zu erhalten Peer-to-Peer-Verkehr und damit der günstigste Verkehr der Welt, da der Prozentsatz des Transitverkehrs von demselben Cloudflare bei 45-50 % liegt.

Dadurch sinken unsere Referenzkosten auf 4,5–5 USD pro Mbit/s oder weniger. Der Prozentsatz des Peering-Verkehrs hängt direkt von der Anzahl der Teilnehmer an den größten Austauschpunkten in Europa ab – AMS-IX in Amsterdam, DE-CIX in Frankfurt und LINX in London. In Europa werden meist Verkehrsaustauschpunkte unterstützt gemeinnützige Organisationen, während in den USA Austauschpunkte hauptsächlich kommerziell sind, ist das gleiche Equinix in New York, was sich erheblich auf die Anzahl der Teilnehmer an diesen Austauschpunkten und damit auf Peerings auswirkt, die bereit sind, Peering-Vereinbarungen zu unterzeichnen. Zum Vergleich: In Amsterdam gibt es laut Statistik für 2014 etwa 1.200 Teilnehmer, während es in den USA nur 400 sind.

Das Verhältnis von Peering- zu Transitverkehr im asiatischen Raum ist ungefähr das gleiche wie in Europa; Cloudflare zeigt eine Grafik mit einem Wert nahe 50-55 %. Allerdings sind die Kosten für den Transitverkehr im Vergleich zu den Referenzkosten für den Verkehr in Europa sechs- bis siebenmal höher und belaufen sich auf bis zu 70 US-Dollar pro Mbit/s. Somit liegen die effektiven Verkehrskosten im Bereich von 28 bis 32 US-Dollar pro Mbit/s, was 6 bis 7 Mal höher ist als in Europa.

Generell sind die Kosten für den Transitverkehr im asiatischen Raum aufgrund mehrerer Faktoren höher. Die Hauptsache ist, dass es in der Region weniger Konkurrenz und mehr monopolistische Anbieter gibt. Zweitens ist der Markt für Internetdienste weniger ausgereift. Und schließlich, wenn Sie sich eine Karte von Asien ansehen, werden Sie eine Menge Dinge sehen – Wasser, Berge, unzugängliche, dünn besiedelte Regionen. Die Verlegung von Seekabeln ist deutlich teurer als die Verlegung eines Glasfaserkabels in der unzugänglichsten Region, allerdings auch nicht billig, sodass die Kosten für den interkontinentalen Transit und die Transitkosten in entlegenen Gebieten durch die Transitkosten innerhalb der übrigen Gebiete ausgeglichen werden des Kontinents, der künstlich aufgebläht wird, um die Kosten für externe und interne „Fern“-Konnektivität zu decken.

Lateinamerika wurde zu einer neuen Region, in der Cloudflare präsent war, und innerhalb von drei Monaten stieg der Prozentsatz des Peering-Verkehrs von 0 auf 60 %.

Allerdings sind die Kosten für den Transitverkehr wie in Asien sehr hoch. Транзитный трафик обходится в 17 раз дороже транзитного трафика в Серверной Америке или Европе, и эффективная стоимость находится на уровне $68 за Мбит / с, что в два раза выше, нежели в азиатском регионе, несмотря на то, что процент пирингового трафика здесь один из лучших in der Welt. Problem Lateinamerika Eine andere Sache ist, dass es in vielen Ländern keine Rechenzentren mit einer „trägerneutralen“ Politik gibt, in der die Teilnehmer frei pendeln und Datenverkehr untereinander austauschen können. Brasilien erwies sich in dieser Hinsicht als am weitesten entwickelt, und nachdem Cloudflare in Sao Paulo ein eigenes Rechenzentrum aufgebaut hatte, stieg die Anzahl der Peerings deutlich an, wodurch 60 % des Börsenverkehrswerts erreicht werden konnten.

Am teuersten ist für Cloudflare vielleicht der Verkehr in Australien, da er damit verbunden ist große Menge Unterwasserautobahnen zur Verkehrsbereitstellung. Und obwohl der Anteil des Peering-Verkehrs innerhalb der Region 50 % erreicht, erlaubt Telstra, ein Monopolbetreiber auf dem australischen Telekommunikationsdienstleistungsmarkt, aufgrund der großen Verteilung nicht, die Kosten des Transitverkehrs innerhalb des Landes unter 200 US-Dollar pro Mbit/s zu senken die Bevölkerung in der gesamten Region, die 20-mal höher ist als der Referenzwert in Europa oder den USA. Infolgedessen liegen die effektiven Verkehrskosten im Jahr 2015 bei 100 US-Dollar pro Mbit/s und gehören zu den teuersten der Welt. Und die Kosten für den Transitverkehr betragen ungefähr den gleichen Betrag, den Cloudflare für den Verkehr in Europa ausgibt, obwohl die Bevölkerung Australiens 33-mal kleiner ist (22 Millionen gegenüber 750 Millionen in Europa).

Interessanterweise gelang es Cloudflare in Afrika trotz der hohen Kosten für den Transitverkehr – etwa 140 US-Dollar pro Mbit/s – mit 90 % der Anbieter Peering auszuhandeln, was dazu führte, dass die effektiven Kosten für den Datenverkehr 14 US-Dollar pro Mbit/s betrugen. Dadurch begannen Websites aus London, Paris und Marseille recht schnell zu öffnen und die Präsenz in Westafrika wurde erhöht, was den Bewohnern desselben Nigerias, wo es etwa 100 Millionen Internetnutzer gibt, einen schnelleren Zugang zu europäischen Ressourcen ermöglichte. Und in der Region Naher Osten erreichte der Prozentsatz des Peering-Verkehrs 100 %, was CloudFlare zum günstigsten der Welt macht, wenn man die Kosten für den Aufbau und die Unterstützung von Rechenzentren nicht berücksichtigt.

Nur zwei Jahre später, Ende 2016, waren die Preise in der teuersten Region – Australien und Ozeanien – um 15 % niedriger, was einen Verkehrspreis von 85 US-Dollar pro Mbit/s ermöglichte. Im Fall von Cloudflare sahen die Statistiken also etwa so aus:

Es ist interessant, dass es heute sechs der teuersten Backbone-Anbieter gibt – HiNet, Korea Telecom, Optus, Telecom Argentina, Telefonica, Telstra, deren Datenverkehr Cloudflare um eine Größenordnung mehr kostet als der Datenverkehr anderer Konnektivitätsanbieter auf der ganzen Welt. und sie weigern sich, niedrigere Transitpreise zu diskutieren. Bei demselben Cloudflare beträgt der Gesamtverkehr zu diesen sechs Netzwerken weniger als 6 % des Gesamtverbrauchs, aber fast 50 % der für die Bezahlung der gesamten Konnektivität bereitgestellten Mittel wurden für den Verkehr aus diesen sechs teuersten Netzwerken gezahlt. Dies konnte natürlich nicht ewig so weitergehen und Cloudflare beschloss, den Datenverkehr seiner „kostenlosen“ Benutzer auf weiter entfernte Rechenzentren (in Singapur oder Los Angeles) umzuleiten, anstatt in Australien und Neuseeland präsent zu sein, wo die Kosten für externe Kanäle anfallen ist vernünftiger, denn ironischerweise zahlte Telstra am Ende mehr, da ihr Unterwasser-Backbone nach dem Umzug stärker ausgelastet war, was ein gutes Zeichen für niedrigere Preise für Unternehmen wie Cloudflare in der Region sein könnte.

Absolute Werte der Verkehrszustellungskosten für Transitanbieter in verschiedenen Regionen

Telegeografie ist eine wunderbare Ressource, die Ihnen hilft, nicht nur das Wachstum von Unterwasser-Backbone-Netzwerken zu sehen, sondern auch, welche Preise im Durchschnitt auf dem Markt für die Verkehrsbereitstellung angeboten werden, und den Median zu berechnen, wenn Sie Transit-Backbone-Anbieter in einer bestimmten Region nutzen. Um Ihnen die aktuelle Preisordnung zu zeigen, musste ich bei ihnen einen kleinen Bericht als Ergebnis einer Datenanalyse bestellen, bei dem die folgenden Ergebnisse erzielt wurden.

Wie Sie sehen, sind die Kosten für den Dedicated Internet Access (DIA)-Dienst derzeit in Mumbai, Sao Paulo und Caracas am höchsten. Während diese Kosten in Europa und den USA bei 6 bzw. 8 US-Dollar pro Mbit/s liegen.

Dementsprechend stellt sich die logische Frage: Wie ist es heutzutage zu solchen Preisen möglich, Server zu vermieten, beispielsweise Konfigurationen mit 2 x Intel Dodeca-Core Xeon E5-2650 v4 128 GB DDR4 6 x 480 GB SSD mit einem 1-Gbit/s-Kanal? und ein Verkehrslimit von 100 TV zu einem Preis von 249 US-Dollar/Monat, was einem tatsächlichen Verbrauch von mehr als 300 Mbit/s entspricht, wenn die Kosten für 1 Mbit/s laut aktuellem Stand bei durchschnittlich 6 US-Dollar/Monat pro Megabit liegen Bericht?

Wie kann der Datenverkehr in Rechenzentren günstiger verkauft werden?

Große Rechenzentren wie EvoSwitch in Amsterdam, wo wir ansässig sind, verfügen über ein eigenes entwickeltes Backbone-Glasfasernetzwerk, das erhebliche Einsparungen bei der Bereitstellung von Datenverkehr in bestimmte Regionen ermöglicht und außerdem die Anzahl möglicher Peerings erhöht. Im Jahr 2017 wurde unser Partner Eigentümer eines der größten und hochwertigsten Netzwerke.

Wie wir der Abbildung entnehmen können, hat die Gesamtkapazität des Netzwerks 5,5 Tbit/s erreicht, es sind weltweit 36 ​​Points of Presence entstanden, über 2000 Peering-Verbindungen, Verbindungen zu 25 Verkehrsaustauschpunkten direkt. All dies wirkt sich natürlich auf die effektiven Verkehrskosten aus, die, wie wir uns erinnern, die Summe der Kosten für kostenpflichtige Backbone-Transit-Konnektivität und kostenloses Peering sind und auch durch die Erhebung einer Gebühr für Peering-Verbindungen vom Verkehrsverbraucher gesenkt werden können Anbieter. Das heißt, der Verkehr kann nicht nur vom Verkehrserzeuger bezahlt werden, sondern auch vom Empfänger – dem Anbieter, in dessen Netzwerk dieser Verkehr erzeugt wird und der daran interessiert ist, die Peer-to-Peer-Inklusion zu organisieren, um den Backbone-Anbietern weniger zu zahlen und Sparen Sie den Datenverkehr nach dem gleichen Schema wie das Datenspeicherungscenter. Unter anderem hat ein Rechenzentrum fast immer die Möglichkeit, überschüssige „eingehende“ Internetkanäle an private Internetnutzer zu verkaufen, die hauptsächlich genau diesen Datenverkehr benötigen, um auf das Internet zuzugreifen, und der in den meisten Rechenzentren tatsächlich ungenutzt bleibt.

Allerdings ist es auch bei einem so ausgedehnten Netzwerk nicht möglich, die Verkehrskosten unendlich niedrig zu halten. Unabhängig davon, welche garantierten Bedingungen für den Datenverkehr das Rechenzentrum bietet, müssen Sie sich daher darüber im Klaren sein, dass die letztendlich niedrigen Kosten für den Datenverkehr durch den Verkauf von Bandbreite mit einem angemessenen Maß an Überverkauf erreicht werden, d. h. durch den Verkauf von mehr Konnektivität als tatsächlich vorhanden ist, aber mit strikte Berücksichtigung der tatsächlichen Bedürfnisse der Rechenzentrumsbenutzer nach Datenverkehr in einem garantierten Fall, wenn jedem Benutzer seine garantierte Bandbreite zu dem Zeitpunkt zur Verfügung gestellt wird, zu dem er sie benötigt. Darüber hinaus gilt: Je mehr Sie beim Datenverkehr einsparen können, desto mehr Benutzer werden bedient und je mehr, desto mehr Peering- und Backbone-Kanäle sind mit dem Netzwerk verbunden.

Schauen wir uns ein Beispiel an. 10 Benutzer benötigen einen garantierten 100-Mbit/s-Kanal zu ihren Servern, nutzen jedoch nicht immer 100 % Konnektivität und häufig auch nicht gleichzeitig. Nach der Analyse des tatsächlichen Verbrauchs stellt sich heraus, dass alle zehn Benutzer gleichzeitig in Spitzenzeiten nicht mehr als 300 Mbit/s Datenverkehr verbrauchen und 1 Gbit/s dedizierte Bandbreite erwerben, und unter Berücksichtigung von Reservierungen - 2 Gbit/s von verschiedenen Es wird unpraktisch, den Betreibern die Möglichkeit zu geben, jedem Benutzer für einen dedizierten Kanal die volle Lautstärke (im Wesentlichen das Doppelte) in Rechnung zu stellen. Es ist viel sinnvoller, das Dreifache von 700 Mbit/s Datenverkehr zu kaufen, wenn der Kauf von zwei unabhängigen Backbone-Betreibern erfolgt, was dazu beiträgt, jedem der 10 Clients mit dem angegebenen Wert einen dedizierten Kanal mit 100 Mbit/s bereitzustellen Verbrauchsniveau und sogar mit einem doppelten Grad an Fehlertoleranz, außerdem bleiben sogar etwa 100 Mbit/s für „Wachstum“ übrig, falls der Verkehrsverbrauch einer Person anfängt zu steigen, was Zeit gibt, zusätzliche Kanäle anzuschließen. Wenn der Verkehr bereits von drei unabhängigen Backbone-Anbietern bereitgestellt wird, wird der Kauf noch rentabler, da es ausreicht, nur 500 Mbit Bandbreite zu kaufen, oder sogar weniger, weil gleichzeitig mit hoher Wahrscheinlichkeit nur Einer von drei Kanälen kann ausfallen – nicht mehr als 166 Mbit/s-Konnektivität, wenn maximal 300 Mbit/s benötigt werden. Auf diese Weise können wir jederzeit problemlos eine Bandbreite von 334 Mbit/s erreichen, die für die Bedürfnisse unserer Abonnenten ausreicht, selbst wenn einer der Uplinks ausfällt.

In der Realität ist die Situation viel einfacher und der Grad an Fehlertoleranz und Redundanz ist höher, da es oft nicht zehn, sondern Zehntausende von Clients mit einem 100-Mbit/s-Kanal gibt. Und die meisten Menschen nutzen sehr wenig Verkehr. So verbrauchen 1000 Server mit einem 100-Mbit/s-Kanal ohne Berücksichtigung laut unserer Statistik im Durchschnitt nur 10-15 Gbit/s in Spitzenzeiten oder sogar weniger, was 10-15 % der ihnen zugewiesenen Bandbreite entspricht. Gleichzeitig hat jeder die Möglichkeit, 100 Mbit/s zum benötigten Zeitpunkt ohne Abrechnung zu verbrauchen, und es werden verschiedenste Backbone-Betreiber genutzt, von denen aus die Kanäle aufgebaut werden. Natürlich gibt es noch mehr Peer-to-Peer-Verbindungen, was die Konnektivität oft günstiger und hochwertiger macht und die Möglichkeit ausschließt, einen großen Teil der Konnektivität auf einmal zu verlieren. Aus diesem Grund wird der zur Gewährleistung der Fehlertoleranz erforderliche Prozentsatz von 50 auf 5 % oder weniger reduziert. Natürlich gibt es Kunden, die ihre Kanäle „auf Vorrat“ laden, aber es gibt auch solche, die extrem wenig Traffic verbrauchen, während sie einen dedizierten Server mit 100-Mbit/s-Kanal ohne Abrechnung mieten, weil das so praktisch ist – kein Grund Sie haben Angst vor teuren Gebühren für Selbstbeteiligung oder verstehen einfach nicht, wie viel Traffic sie wirklich benötigen und wie sie diesen berechnen sollen. Tatsächlich zahlen diejenigen Benutzer, die nicht die gesamte ihnen zugewiesene Bandbreite verbrauchen, für den Datenverkehr der Benutzer, die den Kanal vollständig nutzen.

Unter anderem müssen Sie auch die tägliche Verteilung des Datenverkehrs auf Internetprojekte berücksichtigen, was sich ebenfalls auf die Kostensenkung auswirkt. Denn wenn Sie abends zum Zeitpunkt der maximalen Besuche Ihrer Ressource eine Kanalauslastung von 100 % haben, wird die Kanalauslastung für den Rest des Tages höchstwahrscheinlich viel niedriger als 100 % sein, bis zu 10-20 % in der Nacht und der freie Kanal kann für andere Zwecke genutzt werden (wir erwägen nicht, Verkehr in eine andere Region zu generieren, da in diesem Fall höchstwahrscheinlich eine teure Zahlung für den Transport anfallen wird). Andernfalls kommt es bei Besuchern zu Spitzenzeiten zu Problemen, sie verlassen die Website und der Traffic sinkt unweigerlich aufgrund sich verschlechternder Verhaltensfaktoren und einer niedrigeren Position der Ressource in den Suchergebnissen, wenn der Traffic des Projekts hauptsächlich aus Suchtraffic besteht.

Bei Gigabit-Anschlüssen lag der Prozentsatz der Kanalauslastung in der Anfangsphase des Angebots natürlich über 10-15 % und konnte 50 % oder mehr erreichen, da solche Server zuvor von Traffic-Generator-Abonnenten bei 100 bestellt wurden Mbit/s vom Port reichten ihnen nicht aus, und der Gigabit-Port war viel teurer und es hatte keinen Sinn, dass normale Benutzer dafür bezahlten, wenn kein wirklicher Bedarf dafür bestand. Heutzutage, wo es möglich geworden ist, 1 Gbit/s und sogar 10 Gbit/s zu Hause zu bekommen, und der Unterschied zwischen den Kosten eines Switches, der 1 Gbit/s und 100 Mbit/s unterstützt, vernachlässigbar geworden ist, erweist es sich als viel rentabler, es jedem zu geben Zugriff auf den Kanal 1 Gbit/s, auch wenn er ihn nicht wirklich benötigt, anstatt die Bandbreite zu begrenzen. Nur damit der Kunde möglichst schnell die von ihm benötigte Informationsmenge aufpumpen und dadurch viel schneller Bandbreite für den nächsten Teilnehmer freigeben kann, wenn er nicht ständig Traffic generieren muss. Aus diesem Grund lag der Prozentsatz der Verkehrsauslastung für Server mit einem 1-Gbit/s-Kanal und einer 100-TB-Grenze in Wirklichkeit bei deutlich weniger als 10 %, da die meisten Benutzer einen solchen Kanal natürlich nicht ständig benötigen und ihn freigeben Kanal 10-mal schneller für die Nutzung durch nachfolgende Abonnenten.

Bei der Anwendung dieses Prinzips der Bereitstellung von Internetkanälen besteht ein klarer Bedarf, den Verkehrsverbrauch in einzelnen Segmenten des Rechenzentrumsnetzwerks und sogar in jedem Rack zu überwachen, sodass, sobald jemandes Bedarf an einem Kanal steigt und die Verkehrsreserve zu sinken beginnt, Es ist möglich, einen zusätzlichen Kanal hinzuzufügen und so garantiert „unbegrenzt“ für alle bereitzustellen. Im Allgemeinen werden dank dieses Ansatzes erhebliche Geldbeträge bei der Bezahlung externer Kommunikationskanäle eingespart und es wird möglich, Preise anzubieten, die um eine Größenordnung niedriger sind als ohne Anwendung dieses Prinzips, und sogar Geld beim Verkehr zu verdienen. Schließlich kann ein Rechenzentrum den Datenverkehr nicht zu tatsächlichen Kosten verkaufen, sondern muss lediglich Geld verdienen, da es Zeit und Geld für die Wartung des Netzwerks aufwendet, und ein „gesundes“ Unternehmen muss profitabel sein.

Daher ist der Oversell-Faktor mehr oder weniger überall vorhanden, selbst beim Verkauf von Angeboten mit einem 10-Gbit/s-Unmetered-Kanal an dedizierte Server, die scheinbar den gesamten Datenverkehr hätten verbrauchen sollen. Doch die Realität stellte sich heraus anders. Wir haben gleichzeitig über 50 dedizierte Server mit jeweils einer nicht gemessenen 10-Gbit/s-Verbindung verkauft, unser gesamter generierter Datenverkehr überstieg jedoch kaum 250 Gbit/s, obwohl dieser Kanal von weiteren über 900 dedizierten Servern mit 100 Mbit/s genutzt wurde 1-Gbit/s-Verbindung zu jedem Server. Dadurch konnten wir Server mit einem garantierten 10-Gbit/s-Kanal zu unglaublichen Preisen von 3.000 US-Dollar pro Monat und in Zukunft fast doppelt so günstig (ab 1.800 US-Dollar) bereitstellen. Wir waren die Ersten Konnektivität zu verkaufen niedrige Preise Und gerade deshalb konnten sie so viel Traffic generieren und viele zufriedene Kunden gewinnen.

Heute sind wir bereit, noch weiter zu gehen. Dank der Zusammenarbeit mit dem Tier-I-Backbone-Betreiber Cogent haben wir die Möglichkeit, überschüssige Konnektivität in bestimmten Segmenten ihres Netzwerks in den Niederlanden und den USA noch günstiger zu verkaufen – ab 1199 US-Dollar für einen Server mit einem 10-Gbit/s-Kanal exklusive und ab 4999 $ pro Server mit 40-Gbit/s-Kanal ohne Messung.

https://ua-hosting.company/serversnl – Sie können hier eine Bestellung aufgeben, wenn Sie einen Standort in den USA benötigen – öffnen Sie eine Anfrage in einem Ticket. Allerdings sind die Niederlande hinsichtlich der Konnektivität der optimale Standort für unsere Regionen.

2 x Xeon E5-2650 / 128 GB / 8 x 512 GB SSD / 10 Gbit/s – 1199 $
2 x Xeon E5-2650 / 256 GB / 24 x 512 GB SSD / 10 Gbit/s – 2099 $
2 x Xeon E5-2650 / 256 GB / 24 x 1 TB SSD / 10 Gbit/s – 3599 $
2 x Xeon E5-2650 / 256 GB / 24 x 2 TB SSD / 10 Gbit/s – 6599 $

2 x Xeon E5-2650 / 256 GB / 8 x 1 TB SSD / 20 Gbit/s – 1999 $
2 x Xeon E5-2650 / 256 GB / 24 x 512 GB SSD / 20 Gbit/s – 2999 $
2 x Xeon E5-2650 / 256 GB / 24 x 1 TB SSD / 20 Gbit/s – 4599 $
2 x Xeon E5-2650 / 256 GB / 24 x 2 TB SSD / 20 Gbit/s – 7599 $

2 x Xeon E5-2650 / 256 GB / 24 x 512 GB SSD / 40 Gbit/s – 4999 $
2 x Xeon E5-2650 / 256 GB / 24 x 1 TB SSD / 40 Gbit/s – 5599 $
2 x Xeon E5-2650 / 256 GB / 24 x 2 TB SSD / 40 Gbit/s – 8599 $

In Einzelfällen sind wir in der Lage, angemessene Preise für 100-Gbit/s-Unmetered-Verbindungen anzubieten. Bitte kontaktieren Sie uns, wenn Sie eine solche Konnektivität benötigen.

Natürlich gehen Cogent und ich davon aus, dass Sie nicht die gesamte Ihnen zugewiesene Bandbreite verbrauchen, und auch die vorgeschlagenen Konfigurationen tragen dazu bei. Wenn sie mit einem RAID-Controller verwendet werden, ist es sehr problematisch, mehr als 6 Gbit/s an Datenverkehr zu verbrauchen, da wir einen „Flaschenhals“ in Form eines Controllers bekommen. Wenn Sie die Laufwerke jedoch unabhängig voneinander nutzen, ist es möglich, den Verkehr optimal zu verteilen. In jedem Fall gewährleisten wir die Möglichkeit, das angegebene Band zu konsumieren, unabhängig von unseren Hoffnungen mit Cogent. Darüber hinaus verkaufen sie überschüssige Konnektivität, die, wenn sie nicht verkauft würde, einfach ungenutzt bleiben würde. Wir dürfen auch nicht vergessen, dass Cogent als Backbone-Anbieter von jedem Geld nimmt. Der von Ihnen generierte Traffic wird also in jedem Fall zusätzlich von dem Anbieter vergütet, in dessen Netzwerk dieser Traffic ankommt.

Sie sollten jedoch nicht damit rechnen, dass Sie beim Kauf eines Servers mit einem solchen Kanal über 10, 40 oder 100 Gbit/s pro Stream verfügen; dies ist für dieses Geld einfach unmöglich und oft auch nicht notwendig. Der Streaming-Transport mit hoher Punkt-zu-Punkt-Geschwindigkeit kann viel Geld kosten, in einigen Fällen 55.000 US-Dollar für 10 Gbit/s, wie im Fall der Glasfaserleitung Nowy Urengoi – Norilsk, die wir oben besprochen haben. Dass aber insgesamt eine hervorragende Anbindung an das Internet gewährleistet ist, ist eindeutig. Die durchschnittliche Geschwindigkeit pro Stream liegt bei den meisten Projekten bei über 10 Mbit/s, sodass Sie Projekte mit Videostreaming in Ultra HD-Qualität hosten und sicherstellen können, dass 1000–4000 Personen „online“ von einem Server aus zuschauen können.

Allerdings kann die Übertragungsrate pro Stream in manchen Fällen selbst bei einer geringen Kanalgebühr erheblich sein. So verbreitete sich letztes Jahr das 10-Gbit/s-Heim-Internet in den Vereinigten Staaten, als es für eine bescheidene Gebühr von 400 US-Dollar pro Monat möglich wurde, einen solchen „unbegrenzten“ Kanal zu Hause zu erhalten.

In solchen Fällen erweisen sich Heimrouter, die den Zugriff auf das Netzwerk über WLAN ermöglichen, häufig als „Engpass“ (der eine Verbindung mit bis zu 300 Mbit/s bereitstellen kann), weshalb eine Wiederverwendung erforderlich ist eine kabelgebundene Verbindung und sogar Server zu Hause installieren sowie produktive Computer und Speichergeräte darin verwenden, um bei der Nutzung des Kanals nicht an ihre Möglichkeiten zu geraten. Warum ist das notwendig? Viele Menschen arbeiten heutzutage von zu Hause aus mit Daten. James Busch, ein Radiologe aus den USA, analysiert Patientendaten von zu Hause aus und neuer Kanal spart ihm viel Zeit.

„Eine durchschnittliche Röntgenaufnahme enthält etwa 200 Megabyte an Daten, während PET-Scans und 3D-Mammographie bis zu 10 Gigabyte beanspruchen können. Daher sind wir gezwungen, Hunderte Terabyte an Daten zu verarbeiten. Wir haben berechnet, dass wir mit einer 10-Gbit/s-Verbindung anstelle einer Gigabit-Verbindung durchschnittlich etwa 7 Sekunden pro Studie eingespart haben. Es scheint, dass das nicht viel ist, aber wenn man es mit der Anzahl der Studien multipliziert, die wir pro Jahr durchführen, also 20-30.000, stellt sich heraus, dass wir etwa 10 Tage produktive Arbeit einsparen, nur weil wir das verbessert haben Verbindungsgeschwindigkeit um eine Größenordnung.“

Also, wenn Sie es brauchen hohe Geschwindigkeit pro Fluss bei minimale Kosten- Sie müssen Ihren 10-, 20-, 40- oder 100-Gigabit-Server so nah wie möglich an den Benutzern platzieren. Dann ist es wahrscheinlich, dass Sie in einigen Segmenten des Internets Traffic mit einer Geschwindigkeit von 1 und sogar 10 Gbit/s pro Stream generieren können.

Unsere Zeit eröffnet Ihnen einzigartige Möglichkeiten für neue Erfolge. Jetzt kann man kaum sagen, dass ein Hosting-Service oder die Miete eines dedizierten Servers zu teuer ist, und die Gründung eines eigenen Unternehmens oder Projekts war noch nie so einfach. Mittlerweile stehen die leistungsstärksten Serverkonfigurationen zur Verfügung, deren Leistungsfähigkeit die Leistungsfähigkeit von Servern vor zehn Jahren teilweise um bis zu drei Größenordnungen übersteigt und preislich nicht viel teurer ist als Hosting im Jahr 2005. Jeder kann es sich leisten, authentisch zu sein. Der Verkehr ist um ein Vielfaches günstiger geworden und die Geschwindigkeit der Kanäle ist höher. Und es wird nur von Ihnen abhängen, wie Sie damit umgehen. Jeder kann sich ein interessantes Internetprojekt einfallen lassen, verschwenden Sie keine Zeit mehr. Mieten Sie einen dedizierten Server oder zumindest einen virtuellen und beginnen Sie noch heute mit der Arbeit. Auch wenn Sie ihn noch nicht benötigen und nichts darüber wissen, ist dies eine gute Motivation, weiterzumachen. Nutzen Sie diese Möglichkeiten, um unsere Welt zu einem besseren Ort zu machen. Auch wenn Sie noch nie Erfahrung in der Webentwicklung und der Erstellung von Internetprojekten haben, ist es nie zu spät, damit anzufangen, ich habe einmal bei 0 angefangen und mehr Traffic generiert als ganz Weißrussland! Ich hoffe, dass meine Erfahrung für Sie von Nutzen sein wird. Wir bauen das Internet, machen Sie mit!

Black Friday geht weiter: 30 % Rabatt auf die erste Zahlung mit Aktionscode SCHWARZ30% bei Bestellung für 1-6 Monate!

Das sind nicht nur virtuelle Server! Dabei handelt es sich um VPS (KVM) mit dediziertem Speicher, die nicht schlechter als dedizierte Server sein können, in den meisten Fällen sogar besser! Wir haben VPS (KVM) mit dedizierten Laufwerken in den Niederlanden und den USA hergestellt (Konfigurationen von VPS (KVM) – E5-2650v4 (6 Kerne) / 10 GB DDR4 / 240 GB SSD oder 4 TB HDD / 1 Gbit/s 10 TB zu einem einzigartig niedrigen Preis erhältlich – ab 29 $/Monat, Optionen mit RAID1 und RAID10 verfügbar) Verpassen Sie nicht die Chance, einen neuen Typ eines virtuellen Servers zu bestellen, bei dem alle Ressourcen Ihnen gehören, wie bei einem dedizierten Server, und der Preis ist viel niedriger, mit viel produktiverer Hardware!

So bauen Sie eine Unternehmensinfrastruktur auf Klasse mit Dell R730xd E5-2650 v4-Servern, die 9.000 Euro für ein paar Cent kosten? Ist Dell R730xd 2-mal günstiger? Nur hier 2 x Intel Dodeca-Core Xeon E5-2650v4 128 GB DDR4 6 x 480 GB SSD 1 Gbit/s 100 TV ab 249 $ in den Niederlanden und den USA!

Tags: Tags hinzufügen

Gigabit-Internet zu Hause – und was tun damit? Wir testen das Ultrahochgeschwindigkeitsnetz und suchen nach seinen Schwachstellen

Das Internet ist teuer, die Geschwindigkeit niedrig – solche Beschwerden wird es wohl immer geben. Nach der Bewertung beider Aspekte kann man argumentieren: Die Preise für den Netzwerkzugang in Weißrussland sind unter Berücksichtigung aller Funktionen durchaus akzeptabel. Nun, wie sieht es mit der Geschwindigkeit aus? Für manche reicht ein Megabit, für andere reichen selbst 100 nicht aus. Es hängt alles von den Bedürfnissen ab, und moderne Inhalte können nicht als „leicht“ bezeichnet werden, und ihre Anbieter legen keinen großen Wert auf die „Breite“ des Kanals. Als Experiment haben wir den Internetbetreiber Atlant Telecom gebeten, Heim-Gigabit-Internet bereitzustellen – um herauszufinden, ob die Weißrussen die berüchtigten 1 Gbit/s benötigen.

Welche Verbindungsgeschwindigkeit gilt als komfortabel? In einigen Ländern gelten 5 Megabit Internet als „soziales“ Minimum. Die Führung bleibt lange erhalten Südkorea Bei einem Indikator von 28,6 Mbit/s liegt der weltweite Durchschnitt bei 7,2 Mbit/s. Zum Vergleich: In Weißrussland liegt die Durchschnittsgeschwindigkeit laut einem Bericht von Akamai bei etwa 9,7 Mbit/s, und unser Land liegt in der Weltrangliste unter den fünften Zehn, was ein guter Indikator ist.

Aber was ist das mythische Gigabit-Internet? Mythisch für einen einfachen Benutzer, der nicht weiß, was ein Rechenzentrum, ein Internet der Dinge, Big Data usw. ist. Das heißt, für 95 % der Weißrussen. Im Prinzip steht es den Weißrussen vielleicht schon heute zur Verfügung, aber aus irgendeinem Grund bieten Telekommunikationsbetreiber solche Tarife nicht an oder das Angebot ist begrenzt. Obwohl es vor ein paar Jahren zumindest eine Option gab.

Verbindung

Vor dem Anschluss hatte ich lange Zeit einen Tarif mit 50-Megabit-Anschluss (100 Mbit/s im Peering) genutzt. Die Vor- und Nachteile einer solchen Verbindung sind vielen bekannt: Torrents können den gesamten zugewiesenen Kanal übernehmen, IPTV und Spiele leiden jedoch nicht wesentlich – die Geschwindigkeit reicht aus, damit alles gleichzeitig funktioniert.

Tatsächlich bestand der Übergang zu einer (noch schnelleren) Hochgeschwindigkeitsverbindung darin, ein neues Kabel direkt von der Ausrüstung des Betreibers zu verlegen, das Twisted-Pair in der Wohnung selbst und den Router zu ersetzen – und die Geschwindigkeit um das 20-fache zu erhöhen. Dann erwarteten uns einige Überraschungen.

Der erste wurde vom beliebten Speedtest präsentiert. Als ich versuchte, die Verbindungsgeschwindigkeit zu messen, wurde ich vom Betreibergerät (aufgrund der Besonderheiten der Speedtest-Algorithmen) mit einem „Verbot“ belegt. Die Lösung des Problems hat einige Zeit in Anspruch genommen – der Anbieter hat die Hardware neu konfiguriert.

Nachdem nun einige unglaubliche Werte auf dem „Geschwindigkeitstest“-Board aufgetaucht sind, ist es Zeit für die zweite Überraschung: Es stellt sich heraus, dass nicht jeder Server in Weißrussland in der Lage ist, dasselbe Gigabit zu „erhöhen“. Na ja, versuchen wir es mal mit ausländischen...

Der Server hat sich geweigert, die Geschwindigkeit zu messen – entweder ist er „ausgefallen“ oder hat ihn auf „Verbot“ geschickt.

Es werden nur einige Messergebnisse angegeben, und der Yandex-Dienst wollte nicht beschleunigen

Einige Remote-Hosts reagierten empfindlich auf die Last und blockierten den Zugriff, aber dennoch schwankte die Geschwindigkeit von 450-550 Mbit/s in den USA (Cupertino) bis 930 Mbit/s in russischer Richtung, und Europa – Deutschland, Frankreich, Polen – war es auch ungefähr in der Mitte.

Die synthetischen Tests sind abgeschlossen, wir müssen etwas ausprobieren, das der Realität näher kommt. Wir suchen im P2P-Netzwerk nach Dateien und starten dann Steam. Im ersten Fall konnten wir mit der beliebtesten Datei die Marke von 41 MB pro Sekunde erreichen. Dies ist nicht die Grenze, aber das Ergebnis ist indikativ – das Maximum wird nicht erreicht.

Aus dem Valve-Dienst wurde ein Spiel mit einer Kapazität von ca. 30 GB ausgewählt. Wir klicken auf „Installieren“, aber die Geschwindigkeit steigt nicht über 330 Mbit/s (41 MB pro Sekunde). Was raschelt da unter dem Tisch? Das ist der Flaschenhals – eine Festplatte, deren Kapazitäten erschöpft sind. Wählen wir in den Einstellungen SSD aus und die Geschwindigkeit steigt auf 64 Megabyte pro Sekunde (ca. 512 Mbit/s).

Es gibt Internet, aber keine Geschwindigkeit

Welche Schlussfolgerungen lassen sich ziehen? Im Verantwortungsbereich des Betreibers ist alles in Ordnung – das Gigabit ist mit dem Router verbunden, aber dann beginnen die „Stecker“. Die Hauptgründe für die reduzierten Geschwindigkeiten liegen auf der Hand: eine Festplatte, die keine Daten aufzeichnen kann (eine preisgünstige SSD kann diese Aufgabe möglicherweise auch nicht bewältigen), die allgemeine Leistung des Computers, unzureichende Geschwindigkeit beim Hochladen von Dateien durch die Quelle (dies ist möglich). von der Gegenseite programmgesteuert begrenzt werden).

Verfügt der Nutzer über einen eigenen Router, ist es möglich, dass sich auch dieses Gerät als schwaches Glied herausstellt – die Rede ist von seinem Prozessor und seinen Ports. Darüber hinaus können bei einem Gigabit-Gerät die Ethernet-Ports durchaus 100 Megabit betragen. Nun, der scheinbar banale Grund sind die Kabel. Das alte oder billige Twisted-Pair-Kabel, das in vielen Häusern unter und über den Fußleisten zu finden ist, wird mit 4-adrigen Kabeln verlegt, aber egal wie stark man auf ein Tamburin schlägt, es kommt mit Gigabit nicht zurecht. Bei drahtlosen Verbindungen ist es noch komplizierter.

"Wie kommt es dazu? Sie kaufen einen Router mit der Aufschrift „Gigabit“, was jedoch nicht bedeutet, dass diese Geschwindigkeit immer und überall verfügbar ist. Normalerweise sprechen wir von der Geschwindigkeit zwischen LAN-Ports, aber möglicherweise nicht zwischen LAN- und WAN-Ports. Daher haben Betreiber Modelle mit garantierter Leistung empfohlen und getestet.

Es gibt noch mehr Marketing im Wireless-Bereich. Ein einfaches Beispiel: die Aufschrift „300 Mbit/s“ oder „1100 Mbit/s“ für WLAN.- der Leiter der Abteilung für Festnetz Velcom Oleg Gavrilov. Das Kabel realisiert eine Duplex-Kommunikation mit gleicher Leistung in jede Richtung.

Wi-Fi funktioniert anders und 1100 Mbit/s bedeuten, dass die Geschwindigkeit ungefähr gleichmäßig aufgeteilt wird. Darüber hinaus werden bei Geschwindigkeiten über 300 Mbit/s Parameter für zwei Bereiche angezeigt, die aufsummiert werden. „Und ehrliche Hersteller vermerken neben der Geschwindigkeitsanzeige auch, dass die Daten unter Laborbedingungen gewonnen wurden, bei denen es keine Störungen gibt.“- fügte Oleg hinzu.

Was beeinflusst die Datenübertragungsgeschwindigkeit noch? LAN-Ports verarbeiten praktisch keine Informationen (genauer gesagt, der Prozessor ist nur minimal beteiligt), und das WAN stellt deutlich höhere Anforderungen an die Leistung des Geräts – des Routers. Dementsprechend stellt sich die Preisfrage: Je leistungsfähiger der Prozessor, desto höher ist er, auch bei anderen „normalen“ Eigenschaften.

„Als nächstes kommt das Endgerät: Laptop, Computer, Fernseher, Set-Top-Box. Wir schreiben das Jahr 2017 und Gigabit-Netzwerkkarten sind in allen mehr oder weniger modernen PCs verfügbar. Bei anderen Geräten gibt es Nuancen, insbesondere wenn im selben Laptop ein „schlanker“ Mobilprozessor verbaut ist.“

Vieles, wenn nicht alles, hängt davon ab, was der Benutzer online tut. Beim Surfen ist es unrealistisch, auch nur einen Teil der gleichen 100 Megabit zu nutzen – 5 reichen aus. Wenn Sie Videos ansehen, Dateien herunterladen, Online-Spiele spielen, sind 50 Mbit/s mehr als ausreichend. Aber hier geht es nicht nur um die Datenübertragungsgeschwindigkeit, sondern auch um die Fähigkeiten desselben Computers und der Codecs: „Sie möchten 4K über das Internet schauen, aber es funktioniert nicht oder schaltet auf Full HD um? Es stellt sich heraus, dass das Abonnentengerät solche Inhalte einfach nicht unterstützt.“ Die Praxis hat gezeigt, dass YouTube 4K-Inhalte ohne Verzögerungen liefert (bei 50-Megabit-Tarifen musste man oft auf das Laden warten). Das Gleiche gilt für 8K, aber der Computer kommt damit nicht mehr zurecht und zeigt Diashows an.

Aus technischer Sicht wird ein Kanal mit 50 Mbit/s für das Streaming von 4K-Inhalten ausreichen – bei richtig konstruierten Routen. Heutzutage gibt es in Haushalten in der Regel einen einzigen Verbraucher von Ultra-High-Definition-Video – den Fernseher. Und nur wenige davon. Nun, und Monitore, von denen es wahrscheinlich mehr gibt, aber die Vorteile von 4K-Filmen, die man tagsüber nicht findet, gehen bei einer kleinen Diagonale verloren. Mit der Zeit wird sich jedoch der Bedarf dafür entwickeln.

Laden - 5 %

Basierend auf den Internetnutzungsmustern ändert sich das Benutzerverhalten selbst bei einer Gigabit-Verbindung praktisch nicht: Sie können mit Tests herumspielen, ein paar Spiele und Filme herunterladen und dann zu Ihrem gewohnten Lebensstil („Jocks“ usw.) zurückkehren Veranstalter von „Heimnetzwerken“ werden nicht berücksichtigt).

Auch Oleg Gavrilov stimmt uns zu: „Heute ist es nicht mehr in Mode, „in Reserve“ herunterzuladen. Alles kann online eingesehen werden.“

Objektiv gesehen stimmt das, aber auch ohne ist der Internetkonsum in meinem Fall nicht gestiegen. Natürlich zeigte der Traffic in den ersten Tagen neue Rekorde – bei der Nutzung des Gigabit-Kanals habe ich nur 48 GB mehr als üblich heruntergeladen. Und das ist auf erweiterte Tests zurückzuführen. Dann sank der Verkehrsverbrauch allmählich auf die vorherigen Werte.

Heutzutage setzen große belarussische Betreiber, die Internetzugang anbieten, zunehmend auf die GPON-Technologie (im Gegensatz zu Ethernet bedeutet dies „Optik bis in die Wohnung“ und nicht „Fasern bis ins Haus“). Es verfügt über größere Fähigkeiten und erfordert unter anderem keinen regelmäßigen Austausch der passiven Infrastruktur bei steigenden Geschwindigkeiten.

Es ist logisch anzunehmen, dass mit der Verbreitung von 4K und virtuellen Inhalten in Weißrussland auch der Bedarf an Geschwindigkeiten steigen wird. Aber vorerst müssen die Weißrussen warten.