Netzwerkarchitektur für das Internet der Dinge

Nebel kommt auf

13. Januar 2017, 08:00 Uhr   |  Von Klaas Mertens.

Nebel kommt auf

Mit dem Fog Computing rücken Daten- und Rechenressourcen näher zusammen. Anders als beim RZ-Betrieb oder in der Cloud werden im "Nebel" digital erfasste und gespeicherte Daten nicht mehr zentral verarbeitet. Vielmehr finden grundlegende Verarbeitungsschritte bereits an deren Entstehungsort oder in dessen unmittelbarer Nähe statt. Dies ermöglicht Effizienz-, Leistungs-, Sicherheits- und Kostenvorteile, erfordert aber die passende Standort- und Netzwerkarchitektur.

Aktuelle Trends, vor allem das Internet der Dinge (Internet of Things, IoT), führen dazu, dass immer umfangreichere Datenvolumina an sehr vielen geografisch verteilten Endpunkten entstehen. Um diese große Menge an Informationen zu sammeln, zu verarbeiten und zu analysieren, ist es häufig ineffektiv, die gesamten Daten über das Netzwerk zu den zentralen Verarbeitungsstandorten zu transferieren. Neben hohen Netzwerkkosten sinkt mit jedem Netzwerk-Hop das Sicherheitsniveau, zudem summieren sich die Latenzen.

Ein logischer Schritt ist es daher, die Verarbeitungsintelligenz näher an die Endpunkte zu rücken, an denen die Daten entstehen. Im Idealfall erfolgen die grundlegende Verarbeitung und eine Konsolidierung schon direkt am Sensor, der die Daten erfasst. Meist ist es jedoch praktikabler, Daten in nahe zu den Endpunkten gelegenen Standorten oder Clouds zu verarbeiten. In beiden Fällen werden anschließend nur relevante Daten an die zentralen Verarbeitungsressourcen im RZ und in der Cloud übertragen.

Fog Computing - diesen Begriff hat Cisco bereits um 2013 geprägt - ist nicht darauf zu reduzieren, dass Verarbeitungsressourcen lokal platziert sind; diese Art der Architektur gibt es schon seit sehr langer Zeit. Fog Computing definiert sich vielmehr durch die Fähigkeit, hybride Verarbeitungs- und Analyseprozesse zu ermöglichen, die lokale, standortnahe, zentrale und vor allem Cloud-Ressourcen einschließen können. Klar muss auch sein, dass das Fog Computing nicht in Konkurrenz zur Cloud tritt. Vielmehr ist Fog eine Weiterentwicklung der Cloud. Sie erlaubt es, sich mit guten Erfolgsaussichten den Herausforderungen zu stellen, die sich durch die steigende Zahl vernetzter Endgeräte und Sensoren sowie den daraus resultierenden stark wachsenden Datenvolumina ergeben.

Unter bestimmten Bedingungen ist der Einsatz dieser Architektur empfehlenswert. Dazu zählen unter anderem Datenquellen, die zwar verteilt angeordnet sind, aber geografisch so dicht beieinanderliegen, dass eine lokale Abdeckung einfach erreichbar ist. Da diese Daten häufig auch Auslöser für zeitsensitive lokale Aktionen sind, verbessert sich durch das Fog Computing auch die Service-Qualität, da die Reaktion aufgrund geringerer Latenzen zeitnah erfolgen kann.

Auch die stetig wachsenden Datenvolumina können ein Argument für das Fog Computing liefern. Denn bei Langstreckenübertragungen können sie die verfügbaren Netzwerkressourcen und Bandbreiten überfordern. Dann gilt es, soweit überhaupt möglich entweder mit hohem Aufwand Netzwerke und/oder Bandbreiten auszubauen oder aber die Datenmenge zu reduzieren, die an eine zentrale Verarbeitungsstelle übertragen wird. Durch die letztgenannte Vorgehensweise geht man auch andere typischen Problemstellen heutiger IT-Infrastrukturen an, die nur über unzuverlässige Netzwerkverbindungen verfügen oder aber aufgrund großer Datenvolumina zu hohe Netzwerk- und Bandbreitenkosten verursachen.

Einsatzszenarien

Die folgenden Beispiele zeigen, wann eine Fog-Konfiguration als bessere Alternative zu einer direkten Verbindung in die Cloud fungieren kann:

Fall 1: Ein System zur Verkehrsüberwachung sammelt an Hunderten von Standorten große Datenmengen in unterschiedlichen Formaten von diversen Gerätetypen wie Videokameras, straßenbasierten Sensoren und intelligenten Autos. Würde man die Daten zu Verkehrsspitzenzeiten, zu Ferienbeginn oder etwa bei Veranstaltungen in Gänze direkt in die Cloud transferieren, könnten örtlich Netzwerküberlastungen auftreten. Wenn man die Daten dagegen an Ballungsstandorten sammelt, konsolidiert und ersten lokalen Analysen unterzieht, stehen die Informationen früher zur Verfügung. Auch sind dann deutlich weniger Daten zur überregionalen Analyse in die zentrale Cloud-Anwendung zu senden.

Fall 2: Eine industrielle Automatisierungslösung sammelt Daten von Tausenden von Sensoren, die Auskünfte über den laufenden Betrieb, die erreichte Produktionsqualität und -menge, die Maschinenauslastung sowie eventuelle Störungen geben. Diese Daten liegen in unterschiedlichen, teilweise proprietären Formaten vor. Deshalb müsste man sie vor dem Transfer zur eigentlichen zentralen Anwendung konvertieren. Dies wiederum vergrößert die Vorlaufzeiten für Warnungen, die lokalen Aktionen verlangen, etwa bei einem illegitimen Schadstoffausstoß oder einem Defekt, der das sofortige Abschalten einer Produktionsanlage erfordert. Werden die Daten lokal verarbeitet, kann man für einen Standort relevante Prozesse sofort anstoßen, während die konsolidierten Informationen für Auswertungen an den zentralen Cloud-Service gehen.

Fall 3: Ein fortschrittlicher landwirtschaftlicher Betrieb ermittelt kontinuierlich lokal Messwerte zu Umweltfaktoren einschließlich Feuchtigkeit, Bodenbeschaffenheit, Schädlingsbekämpfung und Wetterbedingungen. Aus Kosten- und Technikgründen steht den auf den Feldern verteilten Sensoren nur eine begrenzte Bandbreite bereit. Die Daten lassen sich somit nicht zuverlässig an eine zentrale Applikation übermitteln. Also installiert man vor Ort einen Fog-Knoten, der Daten sammelt, aggregiert und analysiert.

Für die Konfiguration einer Fog-Infrastruktur erforderlich sind am Netzwerkrand installierte Hardware - jeweils mit Management- und Analyselösungen mit Cloud-Anbindung - sowie Netzwerkverbindungen. Jeder Fog-Knoten benötigt damit:

eine solide Netzwerkanbindung,

ausreichende Prozessorkapazität, um Anwendungen für Analyse und Filterung auszuführen,

Speicherkapazitäten für die temporäre Erfassung und Aggregation von Daten,

Sicherheitsfunktionen sowie

Management- und Analyseplattformen.

Die Gesamtheit aus Clients, Fog-Knoten mit ihrer Hard- und Software, Verbindungen sowie den zentralen RZ- und Cloud-Applikationen verdeutlicht, dass "Fog" kein Produkt ist, sondern ein Rahmenwerk (Framework). Entsprechend komplex können die Voraussetzungen für Anwender sein, die Fog Computing selbstständig realisieren und einsetzen wollen. Die Herausforderungen entstehen in unterschiedlichen Bereichen.

So ist für viele Unternehmen die Finanzierung ein Hinderungsgrund. Denn im Gegensatz zum Cloud Computing mit seiner Abrechnung allein über die Betriebskosten erfordern Fog-Systeme Investitionen in Hardware für die Fog-Knoten. Auch bei der Skalierbarkeit - notwendig für eine schnelle Anpassung an Arbeits- und Marktbedingungen - können Nachteile entstehen, die sich finanziell auswirken: Wie jede hardwarebasierte Technik lassen sich Fog-Knoten nicht einfach und schnell skalieren, was oft zu Überkapazitäten führt. Des Weiteren verursachen die Fog-Knoten allein schon aufgrund ihrer geografischen Verteilung umfangreichen Bereitstellungs- und Wartungsaufwand. Eine der Hauptaufgaben bei der Realisierung einer Fog-Lösung ist der Aufbau einer adäquaten Vernetzungsinfrastruktur: Die benötigte Anbindung muss lokal vorhanden sein, was häufig zu einer unzureichenden oder kostspieligen Bindung an einen einzelnen Netzbetreiber führen kann. Insbesondere die hohen Verbindungsanforderungen einer verteilten, miteinander verknüpften Fog-Landschaft sind nur schwer über virtuelle Verbindungen des öffentlichen Internets zu realisieren. Für adäquate Qualität und Leistung sowie hohe Sicherheit und Zuverlässigkeit beim Datentrasfer ist eine Plattform erforderlich, die es erlaubt, Fog-Knoten am Netzwerkrand für die Verbindung mit Tausenden an Endgeräten und Sensoren zu etablieren. Gleichzeitig muss sie die Konnektivität zu den zentralen Backends mit hoher Bandbreite sicherstellen.

An diesem Punkt werden anbieterneutrale Colocation-Rechenzentren zum Thema, die über eine breite Palette an Netzwerk- und Cloud-Providern verfügen. Damit bieten sie die Infrastruktur für die skalierbaren Netzwerkkonfigurationen, die das Fog Computing erfordert. Colocation kann es damit erleichtern, die Vorteile des Fog Computings effizient zu nutzen.

Klaas Mertens ist Global Solutions Architect bei Equinix ().

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Community-Wissen für das IT-Management heranziehen
Neue Cloud-Generation für die Industrie
Industrie 4.0: Unternehmen erkunden Auswirkungen auf die Praxis

Verwandte Artikel

Equinix

Industrie 4.0