Edge-RZs und zugehörige Netzwerke

Der Rand ist zentral

1. Dezember 2021, 7:00 Uhr | Dave Mullen/jos
Niedrige und extrem niedrige Latenzzeiten sind nur mit einer Architektur erreichbar, in der Edge- und herkömmliche Cloud-Rechenzentren zusammenarbeiten, indem sie die Verarbeitungsleistung gemeinsam nutzen und die Latenzzeiten für genau diejenigen Anwendungen reduzieren, die dies benötigen.
© Leviton

Im Rückblick der vergangenen acht bis zehn Jahre war „die Cloud“ das große Thema, wenn es um Rechenzentren ging. Heute ist der Begriff Edge in aller Munde. Auch wenn dieser bisweilen nur wie ein Modewort erscheinen mag, stellt Edge Computing eine sehr bedeutende Entwicklung mit vielfältigen Auswirkungen dar.

Da immer mehr Geräte auch im Alltag miteinander verbunden sind und nahezu sofortiges Feedback benötigen – von Verkehrssensoren bis hin zu Smartwatches – muss die Latenz für die Datenübertragung oft möglichst kurz sein. Dies lässt sich nur erreichen, wenn die Rechenzentren ihre Rechenleistung am Rand des Netzes (Edge) bereitstellen – also in unmittelbarer Nähe der angeschlossenen Geräte.

Der größte Katalysator für das Wachstum von Edge-Rechenzentren ist die aufkommende 5G-Mobilfunktechnik. 5G eröffnet Möglichkeiten für neue IoT-Anwendungen und smarte Stadttechnik, die sich auf Echtzeitdaten stützen. Dazu zählen zum Beispiel eine verbesserte Automatisierung in Fabriken und Gebäuden, der Fluss des Fußgängerverkehrs in dichten Stadtgebieten oder bei Sportveranstaltungen und in Zukunft sogar reaktionsschnelle autonome Fahrzeuge. 5G führt zu einer komplexen digitalen Transformation, bei der Telekommunikations- und IT-Netzwerke zusammenwachsen. Und es sind Edge-Rechenzentren nötig, um die mit 5G verbundenen Anforderungen an niedrigere Latenzzeiten und höhere Bandbreiten zu erfüllen.

Im Allgemeinen kann eine mittlere Latenz für die Datenübertragung von einem Endgerät zu einem zentralen oder Hyperscale-Cloud-Rechenzentrum etwa 20 Millisekunden oder mehr betragen. Wenn die Datenspeicherung und -verarbeitung an den Rand des Netzwerks verlagert ist, lässt sich die Latenzzeit auf zehn bis 15 Millisekunden senken. Dies gilt als niedrige Latenz. Der Wert mag schnell erscheinen: Unser Gehirn benötigt etwa 13 Millisekunden, um zu erkennen, was unsere Augen sehen. Einige neu entstehende IoT-Anwendungen für Netzwerke am Standort – etwa Fließbänder in Fabriken – erfordern jedoch extrem niedrige Latenzen, die bis auf fünf Millisekunden oder weniger sinken müssen. Niedrige und extrem niedrige Latenzzeiten sind nur mit einer Architektur erreichbar, in der Edge- und herkömmliche Cloud-Rechenzentren zusammenarbeiten, indem sie die Verarbeitungsleistung gemeinsam nutzen und die Latenzzeiten für diejenigen Anwendungen reduzieren, die dies benötigen.

Die Definition des Begriffs Edge ist bisweilen etwas verschwommen. Eine gute allgemeine Definition von Edge Computing stammt von James Stranger, dem Chief Technology Evangelist bei CompTIA. Laut Stranger ist Edge Computing „die Praxis der Erfassung, Speicherung, Verarbeitung und Analyse von Daten in der Nähe des jeweiligen Clients, wo die Daten generiert werden, und nicht in einem zentralisierten Datenverarbeitungszentrum“. Die Daten sind also am Rand des Netzwerks gespeichert und nicht immer in einem traditionellen oder Hyper-scale-Cloud-RZ.

Nicht alle Edge-Rechenzentren sehen gleich aus. Near-Edge-Rechenzentren könnten die Form eines sogenannten Cloudlets, also eines kleinen Cloud-Rechenzentrums haben, das einen Teil der ressourcenintensiven Datenverarbeitung näher an den Rand verlagert. Ebenso könnten kleine Rechenzentren, die Colocation- und Service-Provider nutzen, diese Rolle des Edge-Standorts übernehmen. Dabei handelt es sich um zweckbestimmte Einrichtungen, die sogar über die für ein herkömmliches Rechenzentrum übliche Stromversorgung, Kühlung und Sicherheit verfügen und möglicherweise zehn bis mehr als 100 Schränke beherbergen. Sie befinden sich in der Regel in kleineren oder mittelgroßen Städten mit weniger als einer Million Einwohnern und bieten niedrige oder mittlere Latenzzeiten.

Far-Edge-Rechenzentren befinden sich in noch größerer Nähe zu Nutzern und Endgeräten und haben das Ziel, niedrige bis extrem niedrige Latenzzeiten von fünf Millisekunden oder weniger zu bieten. Dabei handelt es sich in der Regel um Mikro-Rechenzentren oder sehr kleine Rechenzentren mit einer Größe von einem halben Rack bis zu fünf Schränken. Dies sind oft vielseitige Lösungen, die in einem Lager, in Schaltschränken oder an dezentralen Standorten untergebracht werden können – überall auf dem Gelände, um unternehmenskritische Anwendungen zu unterstützen.

Anbieter zum Thema

zu Matchmaker+

  1. Der Rand ist zentral
  2. Datenübertragungsraten und Verkabelungsinfrastruktur

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Brand-Rex Germany GmbH

Weitere Artikel zu IoT-Sicherheit

Weitere Artikel zu ZEITLAUF GmbH antriebstechnik & Co. KG

Weitere Artikel zu bar pneumatische Steuerungssysteme GmbH

Weitere Artikel zu Aquaman Deutschland GmbH

Matchmaker+