Fluch und Segen großer Datenmengen

Treibstoff für die vernetzte Mobilität

16. September 2019, 7:00 Uhr | Jason Coari

Mit Hochdruck bauen die Automobilhersteller an der vernetzten Mobilität - und der Rohstoff hierfür sind Daten, Daten, Daten. Dies führt dazu, dass die Datenmenge, von denen die Fahrzeuge abhängig sind, automatisch wächst und zudem ein komplexes Netz aus Plattformen und Algorithmen entsteht.

Die Technik in der Automobilindustrie entwickelt sich rasant und macht das selbstfahrende Fahrzeug für jedermann heute greifbar nah. Häufig steht dabei das maschinelle Lernen (ML) im Mittelpunkt. Und ohne Frage entscheidet die Entwicklung der künstlichen Intelligenz (KI) mit über die Zukunft der Mobilität.

Für die Entwicklung und den Betrieb einer intelligenten Infrastruktur ist es daher unerlässlich, die richtigen Daten in Echtzeit zu erfassen und zu verarbeiten. Ein weiterer wichtiger Punkt ist es, die Daten sicher und für andere Technologien jederzeit abrufbar zu speichern. Dieser Fakt wird als Herausforderung für eine zuverlässige Vernetzung oft übersehen.

Autonome Fahrzeuge sind hochkomplexe Systeme

Auch wenn es noch einige Jahre dauern wird, bis vollautonome Autos vom Band laufen, steigt die Anzahl teilautonomer Fahrzeuge stetig. Die Analysten von Gartner schätzen, dass bis 2020 weltweit eine Viertelmilliarde solcher Fahrzeuge unterwegs sein werden. Sie sind mit On-Board-Techniken ausgestattet, wie etwa fahrerunterstützte Systeme (ADAS), Infotainment-Systeme (IS) oder intelligente Sensoren, die dem vernetzten Fahrzeug seine mitdenkenden Fähigkeiten verleihen.

In den kommenden Jahren werden unterschiedliche Arten mit individuellen Anforderungen auf den Markt kommen: Während etwa unternehmenseigene Flottenfahrzeuge über eine eigene Speicherarchitektur für die Verwaltung ihrer Daten verfügen, konzentrieren sich die Hersteller bei Mittelklassefahrzeugen für Verbraucher eher auf Infotainment-Systeme, wie das Streaming von Video- und Audioinhalten, die eine ganz andere Architektur erfordern.

Im Alltag sind Probleme vorprogrammiert, etwa, wenn die Verkehrsdichte steigt oder Szenarien eintreten, die eine massive Datenübertragung zwischen dem fahrzeugseitigen System und dem zentralen Computersystem erfordern. Will man diese Herausforderungen lösen, führt dies zwangsläufig zu einer Überlastung mit Daten im stark beanspruchten Netzwerk und zu extremer Rechenkomplexität im Bordsystem.

Gartner prognostiziert, dass das durchschnittliche vernetzte Fahrzeug bis 2020 jährlich über 280 PByte an Daten produziert - pro Tag müssen in diesem Szenario also mindestens vier TByte an Daten verarbeitet werden. Sie stammen von der OnBoard-Hardware, zu der Kameras gehören, die 20 bis 60 MByte Datenvolumen pro Sekunde erzeugen oder LIDAR-Systeme (Light Detection and Ranging) für die radarbasierte Messung von Abständen und Geschwindigkeiten mit zehn bis 20 MByte pro Sekunde. Sonarradare und GPS bringen es jeweils auf zehn bis 100 kBit pro Sekunde.

Datenspeicherung wird zum Problem

Für die Entwicklung des autonomen Fahrens sind neben den durch die On-Board-Technik im Fahrzeug gewonnenen Daten genauso die durch Smart-City-Anwendungen auf der Straße erhobenen Daten unverzichtbar. Gemeinsam bilden sie den Rohstoff für die Mobilität von Morgen. Gleichzeitig sind sie der Sand im Getriebe der Automobilhersteller. Denn für den Betrieb massentauglicher, autonomer Fahrzeuge müssen sie die Daten über Jahre speichern, etwa um gesetzliche Vorschriften einhalten und die Algorithmen in der weiteren Entwicklung validieren zu können. Selbstfahrende Fahrzeuge werden durch Data-Intelligence-Lösungen gesteuert. Entscheidend ist es, die richtigen Daten zu speichern und sie effizient in intelligente Systeme, Analyselösungen, Entwicklungsabläufe und andere Anwendungen zu übernehmen.

Die Automobilhersteller müssen darüber hinaus die Speicherung der Datenmengen schultern, die im Zuge der Entwicklung von KI anfallen. Denn diese der vernetzten Mobilität zugrunde liegende Technik steckt noch in den Kinderschuhen. Jeder Entwicklungstest erzeugt Hunderte von PByte, die über lange Zeiträume aufbewahrt werden müssen. Eine Studie der International Data Corporation kommt zu dem Ergebnis, dass die weltweite Datenmenge von 33 ZByte im Jahr 2018 auf 175 ZByte im Jahr 2025 anwachsen wird. Fast 30 Prozent davon müssen in Echtzeit verarbeitet werden.

5G eröffnet neue Ära der vernetzten Mobilität

Wenn wir heute über vernetzte Mobilität sprechen, gehört 5G selbstverständlich dazu. Autonome Fahrzeuge sind für die Echtzeitübertragung auf eine möglichst niedrige Latenz angewiesen. Das 5G-Zeitalter wird Menge und Geschwindigkeit der zu verarbeitenden Daten in neue Dimensionen führen. Die meisten Fahrzeuge, die heute auf den Straßen unterwegs sind, sind mit einem internen Kommunikationssystem oder einem Internetzugang ausgestattet. Aktuelle Entwicklungen bei Kommunikationsstandards und Netzwerken zeigen Geschwindigkeiten von über zehn GBit/s und eine Latenz von weniger als zehn Millisekunden. 5G wird das heutige Datenpotenzial verzehnfachen. Wir erleben die Kommunikation zwischen Fahrzeugen und zwischen Fahrzeug und Infrastruktur mit einer Geschwindigkeit und Kapazität, die bis vor kurzem mit den Netzwerken der älteren Generation nicht möglich war.

Eine weitere entscheidende Frage für die vernetzte Mobilität ist die der IT- und Datensicherheit, denn Verlässlichkeit ist im Straßenverkehr unverzichtbar. Spinnt man diese Idee weiter und denkt bereits an die ersten Fahrzeuge, die Endanwender dann tatsächlich auf der Straße nutzen, sind es vor allem telemetrische Daten zwischen dem Fahrzeug und der Umgebung - Stichwort Smart Cities - die dem Fahrzeug helfen, sicherere Entscheidungen zu treffen und akkurater zu navigieren. Momentan gehen Entwickler davon aus, dass man diese Informationen streamt statt physisch speichert, was eine Vorhaltung der Daten von etwa 30 Minuten notwendig macht. Eine Art Black Box auf Basis eines kostengünstigen Solid-State-Laufwerks (SSD) bietet sich hier für die Datenspeicherung an.

Die Speicherarchitektur der Zukunft

Ohne intelligente und maßgeschneiderte Storage-Lösungen im Fahrzeug und im Backend kommt die Entwicklung der vernetzten Mobilität ins Stocken. Die Wirtschaft steht also vor der Aufgabe, stetig wachsende Datenmengen aus den Fahrzeugen und aus der Entwicklung dazugehöriger Innovationen sicher, intelligent, zukunftsfähig und kostengünstig zu speichern und zu managen. Die Schlüsseltechnik hierfür ist eine skalierbare und wirtschaftliche Speicherung in Form von Flash, Festplatte, Tape und Cloud, die die Möglichkeit bietet, Daten nahtlos zwischen den verschiedenen Speicherarten zu verschieben. Nur mit maßgeschneiderten Storage-Lösungen lassen sich vollständig selbstfahrende Fahrzeuge entwickeln.

Meistern lässt sich diese Herausforderungen, indem man einen reibungslosen Übergang der Daten aus allen Lebensphasen von der ersten Erfassung im Fahrzeug bis hin zur langfristigen Speicherung ermöglicht. Die Infrastruktur muss einen aktiven Zugriff und die Suche in allen Daten erlauben, extreme Langlebigkeit aufweisen und mit Werkzeugen ausgestattet sein, die Compliance-Vorgaben wie beispielsweise die Übereinstimmung mit den Datenschutzgesetzen gewährleisten. Eine Architektur, die diesen Anforderungen gewachsen ist, kommt nicht ohne ein leistungsstarkes Frontend auf Basis von SSD-Speichern oder Festplatten aus. Mindestens genauso wichtig ist ein kostengünstiger und skalierbarer Speicher für große Datenmengen, vorzugsweise Tape oder objektbasierter Speicher.

Der Schlüssel liegt letztlich darin, den Datennutzern auf einfachem Wege die benötigten Speicher- und Verarbeitungsressourcen für ihre spezifischen Arbeitsabläufe in jeder Phase des Datenzyklus zur Verfügung zu stellen. Eine Kombination aus leistungsstarker Festplatte und Tape-Archivierung mit einem gemeinsamen Verwaltungspunkt für viel Speicherplatz kann in dieser Situation die Antwort sein.

Gefragt sind also flexible Lösungen, die Leistung und Kapazität unabhängig voneinander skalieren können. Zugleich sollten sie es ermöglichen, dass die Sekundärspeicher wachsen, während der Arbeitsbereich des primären aktiven Speichers so klein wie möglich gehalten wird, um die Kosten zu senken. Dabei bieten sich die Prinzipien des mehrstufigen Storage an: Die Daten verschiebt man entsprechend der unterschiedlichen Zugriffsanforderungen auf die optimale Speicheroption. Jede Stufe ist auf spezifische Kosten und Leistung abgestimmt, basierend auf den Anwendungsfällen jedes Fahrzeuges, der Anzahl der Sensoren und den individuellen Anforderungen an die Datenspeicherung.

Besondere Anforderungen für die Weiterentwicklung

Hochperformanter Speicher kombiniert mit kostengünstigem Archivspeicher erlaubt einen nahtlosen Wechsel von leistungsfähigen Analysen zu langfristiger Datenvorhaltung - das ist entscheidend für die Weiterentwicklung. Durch das aktive Daten-Management lassen sich umfangreiche Entwicklungsprojekte effizient umsetzen, da die Kosten für Storage erheblich sinken. End-to-End-Lösungen sollten auch robuste Speicher für den Einsatz in Testfahrzeugen beinhalten.

Ideal für die Anforderungen ist ein Datenspeicher, der Analyse und Lösungsentwicklung unterstützt und sich dabei selbst sichert und verwaltet. Unternehmen, die autonome Fahrzeuge entwickeln, können somit einfach und schnell Daten aus dem Testfahrzeug in das Rechenzentrum einspeisen. Zudem profitieren sie von niedrigen Kosten für Speicherung, leistungsfähigem gemeinsamem Zugriff, integrierter Sicherung und Data-Lifecycle-Management.

Jason Coari ist Director Scale-Out Storage Solutions bei Quantum, www.quantum.com.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Sandberg

Matchmaker+