Künstliche Intelligenz in der Automobilindustrie

Gas geben beim KI-Einsatz

9. September 2020, 7:00 Uhr | Christian Ott/wg
Noch können Algorithmen nur Daten korrelieren und Muster erkennen. In der höchsten Entwicklungsstufe sollen sie sich eines Tages wie Menschen verhalten.
© Bild: NetApp

Künstliche Intelligenz (KI) ist ein wesentlicher Treiber für die Automobilindustrie, um sich in den wichtigen Geschäftsfeldern Smart Factory, Fahrassistenzsysteme und autonomes Fahren wettbewerbsfähig aufzustellen. Unabhängig vom Entwicklungsstand und dem konkreten Use Case besteht die größte Herausforderung darin, eine durchgehende Datenpipeline vom Edge über die Cloud bis hin zum eigenen Rechenzentrum zu etablieren.

Je nachdem, wie Unternehmen KI einsetzen, lässt sich die Technologie in drei Stufen unterteilen. Das erste Level des KI-Modells bildet die Analytik, die sich auf das Sammeln und Korrelieren von Daten konzentriert. Autohersteller sind mit einer KI-Applikation zum Beispiel in der Lage, alle relevanten Supply-Chain-Informationen zu dokumentieren und so sämtliche verbauten Teile zurückzuverfolgen. Ihr Gewährleistungsrisiko sinkt, da sich schnell ermitteln lässt, in welchen Automodellen wo ein etwaiges schadhaftes Teil verbaut wurde. Auch gezielte Rückrufe lassen sich so leichter organisieren.

In der zweiten Stufe dreht sich alles um das Erfassen und Interpretieren von Zuständen. Sensoren einer Maschine messen kontinuierlich Werte, beispielsweise Temperaturen, Vibration oder Feuchtigkeit. Weicht ein Wert von der Norm ab, registriert das die KI-Anwendung und deckt so Fehler oder Schwachstellen auf. Ein klassisches Beispiel ist Predictive Maintenance (vorausschauende Wartung): Dank kontinuierlicher Überwachung kann man proaktiv die Wartung anstoßen und größere Reparaturen vermeiden.

Im höchsten Level verhält sich ein Algorithmus wie ein Mensch, aber idealerweise ohne Fehler zu machen. In der Praxis arbeitet ein Algorithmus innerhalb einer bestimmten Fehlergrenze. Dabei ist beispielsweise die Fehlertoleranz für das autonome Fahren minimal.

Entwickeln einer Datenpipeline
Je mehr Daten in ein KI-System fließen und dieses trainieren, desso besser werden die Ergebnisse. Das Daten-Management muss dafür sorgen, dass das Erfassen, Auswerten und Speichern effizient erfolgt – über das Entwickeln einer Datenpipeline. Flexibilität ist ein weiteres Kriterium, denn Unternehmen sollen ihre Daten jederzeit verschieben können und immer die Kontrolle behalten.

Was eine Datenpipeline umfasst, soll ein Beispiel für Deep Learning (DL) veranschaulichen: DL ist eine Form des maschinellen Lernens (ML), das mehrere Lagen künstlicher Neuronen zwischen Ein- und Ausgabeschicht nutzt. Bei einem DL-Anwendungsfall findet die Datenaufnahme in der Regel am Edge statt, etwa via Sensoren am Auto. Dort erfolgt auch die erste Datenkonsolidierung, die in erster Linie Rechenleistung erfordert.

Die Datenvorbereitung und das Normalisieren der Daten für das Training erfolgen in einem Data Lake. Dieser lässt sich entweder in der Cloud als S3-Tier oder vor Ort als File- oder Objektspeicher betreiben. Nach der Bereitstellung der Daten vom Data Lake im Trainingscluster und nach dem Kombinieren mit externen Datensätzen startet das DL-Training. Zum Einsatz kommen häufig Server mit Grafikprozessoren (GPUs), beispielsweise Nvidia-DGX-Systeme.

Für das Implementieren des entwickelten KI-Modells in einer Test- und anschließend in einer Produktivumgebung sind vor allem zwei Aspekte wichtig: Es gilt, die Ergebnisse in der Praxis zu überwachen. Und das Feedback fließt zusammen mit neuen Daten wieder in den Data Lake, um den Prozess zu wiederholen. Die „kalten“ Daten aus vorherigen Zyklen sollte man unbegrenzt speichern. Dazu verwenden KI-Teams bevorzugt Objekt-Storage in einer Private oder Public Cloud.

Mit KI verbinden Autokonzerne vor allem die Aussicht, effizienter und nachhaltiger zu produzieren. Deshalb genießt dieses Einsatzgebiet Priorität. Eine KI-Architektur setzt hier auf einer vernetzten Produktionsumgebung auf. Dabei kommt es auf das Zusammenspiel von Edge, On-Premises oder Cloud-Computing, Maschine-zu-Maschine-Kommunikation in Echtzeit, Geräte-Management, Orchestrierung der Komponenten und die Integration von Datenanalyse-Plattformen an.

Die Herausforderung liegt hauptsächlich im Verknüpfen verschiedener Technologien, damit bestimmte Prozesse parallel ablaufen. Letztlich muss beispielsweise ein Automobilzulieferer alle Vorgänge von der Bestellung über die Fertigung bis zur Auslieferung durchgehend digitalisieren. Dies ist der Grundstein für die Wettbewerbsfähigkeit im Zeitalter der Industrie 4.0.

Im nächsten Schritt geht es darum, die Daten in einem standardisierten Data Lake für KI-Anwendungen zur Verfügung zu stellen. Dafür muss ein Unternehmen bisherige Datensilos aufbrechen und die Daten vereinheitlichen. Erst dann lassen sich Einsatzszenarien der Stufe 1 (Analytik, die sich auf das Sammeln und Korrelieren von Daten konzentriert) und 2 (Erfassen und Interpretieren von Zuständen) des oben beschriebenen KI-Modells realisieren.

Anbieter zum Thema

zu Matchmaker+
402 LANline 2020-09 NetApp Bild 2
Bis sich Autos autonom im Straßenverkehr bewegen, wird es noch dauern – und hängt unter anderem von den Fortschritten beim Entwickeln der KI-Apps ab.
© Bild: SAE International

Hochautomatisierte Helfer im Auto
Das zweite wichtige Anwendungsfeld für KI in der Automobilbranche bilden fortschrittliche Fahrerassistenzsysteme (Advanced Driver-Assist System, ADAS) und autonome Fahrzeuge (AV). Deren Ziel ist es, menschliche Fehler und die daraus entstehenden Folgen zu reduzieren. Anhand dieser Kategorien lässt sich der Fortschritt auf dem Weg zum autonomen Fahren festmachen, der sich an der Skala der US-Verkehrssicherheitsbehörde NHTSA (National Highway Traffic Safety Administration) orientiert:

Stufe 0: keine Assistenzsysteme
Stufe 1: assistiert
Stufe 2: teilautomatisiert
Stufe 3: hochautomatisiert
Stufe 4: vollautomatisiert
Stufe 5: autonom

Heute decken die meisten ADAS-fähigen Autos die Stufen 1 bis 2 ab. Zu den gängigen Systemen zählen adaptive Geschwindigkeitsregelung, Erkennung des toten Winkels, Parkassistenz, Spurverlassen-Warnsystem, Reifendruck-Überwachungssysteme, autonome Notbremsung und adaptives Frontlicht. Trainierte KI-Software und Sensoren weisen ADAS-ausgerüstete Fahrzeuge zudem an, einen Sicherheitsabstand zu umliegenden Fahrzeugen einzuhalten.

Der Weg zur Vollautomatisierung ist aber noch weit. Momentan trainiert man KI-Software darauf, andere Fahrzeuge, Fußgänger, Verkehrsschilder, Ampeln, Hindernisse und mehr zu erkennen. Surround-Kameras und Ultraschallsensoren speisen ihre Daten in einen Bordcomputer ein. Danach werden die Daten in die Cloud übertragen, wo ML die Software kontinuierlich dahingehend verbessert, dass diese schneller und genauer entscheidet. Jetzt und in der Zukunft muss ein Hochleistungsrechner im Auto stecken, der über genügend Rechen- und Speicherkapazität verfügt, um Entscheidungen in Echtzeit treffen zu können.

Eine Smart Factory und autonomes Fahren erfordern eine IT-Architektur, die auf GPU-Computern und All-Flash-Storage basiert. Dieser IT-Stack befähigt den Automobilsektor und andere Branchen, eine Datenpipeline vom Rand (Edge) über das Core-Netz bis hin zur Cloud aufzubauen. Damit lassen sich datengesteuerte Entscheidungen ableiten, durch die Unternehmen wiederum ihre Geschäftsergebnisse verbessern können.

Eine validierte und getestete Architektur vereinfacht und beschleunigt das Bereitstellen der KI-Infrastruktur. Zudem ist sie leichter skalierbar. Unternehmen erkennen und eliminieren Performance-Engpässe rechtzeitig und erhalten einen sicheren, unterbrechungsfreien Datenzugriff, damit ihre KI-Anwendung performant läuft. Dazu trägt wesentlich eine Data Fabric bei, die verschiedene dynamische und verteilte Datenquellen oder Endpunkte integriert. Der Anwender muss dabei stets die vollständige Kontrolle haben. Zudem müssen die Sicherheit und der Schutz der Daten gewährleistet sein.

Die Automobilindustrie muss für die verschiedenen Stufen des KI-Einsatzes in der Lage sein, schnell eine funktionsfähige und skalierbare Dateninfrastruktur aufzubauen. In dieser bilden integrierte offene Schnittstellen (API), Daten-Management-Lösungen, die die ganze Datenpipeline abdecken, sowie Containerlösungen ideale Voraussetzungen für die App-Entwicklung. Diese funktioniert erst reibungslos, wenn das Management der Container auf kleinen Recheneinheiten am Edge, auf extrem performanten Appliances im Rechenzentrum und als nach Nutzung bezahlter Cloud-Service vereinheitlicht erfolgt. Mit einem solchen IT-Stack kann die Automobilindustrie noch mehr Gas in der gezielten KI-Anwendung geben. Dazu zwingt sie der Wettbewerbsdruck – wie auch in anderen Branchen.

Christian Ott ist Senior Manager Solution Engineering Global Automotive bei NetApp, www.netapp.com.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu NetApp Deutschland GmbH

Weitere Artikel zu System-Management

Weitere Artikel zu Pano

Weitere Artikel zu Swissphone Telecommunications

Matchmaker+