Ohne menschliches Zutun sprechen Maschinen miteinander, verbessern ihre Effizienz und arbeiten individuelle Kundenwünsche in die Produktion mit ein. Zwar geht es noch nicht ganz ohne den Menschen, doch die Szenarien sind nahe am Möglichen. Denn mit der Vernetzung von Fertigungsanlagen und sonstigen Geräten sowie der M2M-Kommunikation lassen sich heute schon kontinuierlich wertvolle Daten sammeln, die konkrete Mehrwerte generieren.

Trotz der anhaltend hohen Nachfrage nach Qualität „made in Germany“ stehen hiesige Industrieunternehmen in starker Konkurrenz mit Billigherstellern im Ausland, besonders bei der Massenproduktion. Neue Technologien im Rahmen von Industrie 4.0 und vernetzter Produktion wie beispielsweise Data Analytics und M2M-Kommunikation (Machine to Machine) können die Wettbewerbsfähigkeit der deutschen Wirtschaft jedoch langfristig sichern. Mithilfe von automatisierter Betriebsdatenanalyse können sie ihre Kosten senken, die Effizienz steigern und die Produktion flexibler und kundenzentrierter gestalten. Unternehmen setzen sich so durch die Qualität und die Individualität ihrer Produkte entscheidend von den Mitbewerbern ab.

Dies birgt weitgreifendes wirtschaftliches Potenzial. Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO sieht durch Industrie 4.0 bis zum Jahr 2025 im Vergleich zu 2013 eine Steigerungsrate um 11,5 Prozent für die gesamtwirtschaftliche Bruttowertschöpfung voraus. Für die chemische Industrie, den Maschinenbau und Hersteller von elektrischen Ausrüstungen erwartet das Institut sogar Wertschöpfungssteigerungen von 30 Prozent und mehr. Für Unternehmen dieser Branchen kann die Einführung von Industrie-4.0-Technik einen wahren Vorteil bedeuten, mit dem sie sich an der Spitze ihres Feldes behaupten.

Wie nutzen Unternehmen mit Big-Data- und Analytics-Technologien dieses Potenzial? Datenanalysen können beispielsweise Produktionshindernisse aufdecken, die mit bloßem Auge nicht erkennbar sind und selbst den erfahrensten Mitarbeiter bislang verborgen blieben. In einem Beispiel aus der Automobilindustrie standen zwei identische Gießereien nebeneinander. In einer davon war der Ausschuss jedoch viel höher als bei der anderen. Den Grund dafür brachte erst eine Analyse der Produktionsdaten ans Licht: gutes Wetter. An sonnigen und somit meist wärmeren Tagen produzierte eine Straße aufgrund erhöhter Temperaturen mehr Ausschuss. Der erste große Schritt zur Ausschussverringerung war damit getan.

In diesem Fall wurde der Grund für ein bereits bekanntes Problem erforscht. Doch auch die Suche nach potenziellen zukünftigen Schwierigkeiten – Predicitve Analytics – spielt eine wichtige Rolle innerhalb der automatisierten Betriebsdatenanalyse. Die Gewichtung verschiebt sich dabei – weg von der klassischen, deskriptiven Analyse hin zur zukunftsorientierten, vorhersagenden und präskriptiven. Dabei werten Unternehmen bestehende Daten aus und untersuchen mithilfe von Erfahrungswerten und weiterführenden Algorithmen, wie sich Kennzahlen zukünftig entwickeln werden. Dadurch zeigen sie Trends auf und treffen Vorhersagen. Auch lassen sich damit wiederrum Wartungsarbeiten an Maschinen terminieren, noch bevor ein Fehler auftritt.

Mit Predictive Analytics der Konkurrenz einen Schritt voraus

Wie dies funktioniert, zeigt das Beispiel eines deutschen Herstellers von Klebstoffen: Der Mittelständler produziert Kleber für international agierende Kunden aus der Holz-, Getränke-, Papier-, Verpackungs- und Tabakindustrie. Zudem bietet er die Wartung der für die Verarbeitung benötigten Maschinen an. Mithilfe von Sensoren, die messen, wie voll die Leim- und Härtetanks bei seinen Kunden noch sind, ließ sich der Nachbestellprozess automatisieren. Die Sensordaten kombinierte der Hersteller dazu mit den ERP-, CRM- und MES-Daten der Kunden, um alle relevanten Faktoren zu prüfen. Dadurch lässt sich die erforderliche Bestellmenge automatisch berechnen und an den Klebstoffhersteller übermitteln.

Die klebstoffverarbeitenden Maschinen, für deren Wartung der Mittelständler zuständig ist, stattete dieser ebenfalls mit Sensoren aus. Mit den ermittelten Daten überwacht er nun die eingesetzten Mengen an Leim und Härter sowie Mischverhältnisse und Ausschussrate und optimiert alles fortlaufend. Zudem kann der Anbieter die Maschinen auf diese Weise fernwarten.

In der großen Menge an Informationen die relevanten Daten zu lokalisieren, ist in komplexen Industrie-4.0-Architekturen oft eine große Herausforderung. Bild: Axians IT Solutions

Durch die Auswertung und den Vergleich von Maschinendaten verschiedener Abnehmer kann er Auffälligkeiten und Muster erkennen, die Störungen zur Folge haben. Dadurch ist er in der Lage, einen Techniker mit nötigen Ersatzteilen loszuschicken, noch bevor überhaupt ein Defekt auftritt. Mithilfe dieser Predictive Maintenance kann er einen Stillstand der Maschinen verhindern. Der Mittelständler bietet seinen Kunden dadurch einen nach seiner Meinung besonders guten Service, der ihn von Mitbewerbern eindeutig abhebt.

Solche Beispiele zeigen, wie wichtig Big Data für die Zukunftsfähigkeit deutscher Industrieunternehmen ist. Für viele stellt die Umsetzung entsprechender Projekte aber auch eine große Herausforderung dar: Investitionskosten, Sicherheitsbedenken, zu wenig qualifiziertes Personal und Maschinen mit unterschiedlichen Standards stehen Industrie-4.0-Konzepten entgegen. Laut einer gemeinsamen Studie des Branchenverbandes Bitkom mit Ernst & Young rangiert ein zu hoher Investitionsbedarf bei 64 Prozent der Befragten ganz oben auf der Hemmnisliste bei der Einführung von Industrie-4.0-Technik. Es empfiehlt sich daher, ein Analytics- oder Industrie-4.0-Projekt über mehrere Stufen und in kleine Teilprojekte gegliedert auszurollen. Eine schrittweise Einführung der Technologien verteilt die Investitionskosten auf einen längeren Zeitraum und bringt in ersten Teilbereichen dennoch schnelle Ergebnisse.

Herausforderungen bei Big-Data-Projekten

Weitere Herausforderung bei der Umsetzung von Big-Data-Projekten sind die in der Produktion vorherrschenden langen Investitionszyklen. Sie sind der Grund, weshalb die einzelnen Geräte im Maschinenpark häufig unterschiedliche Voraussetzungen in Bezug auf verfügbare Schnittstellen und Steuerungsmöglichkeiten haben. Sie sind nur wenig oder unterschiedlich programmiert und sprechen verschiedene Sprachen, was die Einführung und Vernetzung mit neuen Technologien erschwert. Bei der Umsetzung von Industrie 4.0 erfolgt die Automatisierung deshalb häufig nur teilweise und die gewonnenen Daten fließen vorerst in separate Datensilos, anstatt diese in einem zentralen Pool verwertbar zu machen. Dienstleister übersetzen die einzelnen Maschinensprachen in einen einheitlichen Code, erfassen die gesammelten Daten in einem zentralen Topf und machen sie technisch vergleichbar. Mithilfe intelligenter Analysen erkennen sie letztendlich die erhofften Mehrwerte.

Für 57 Prozent der Unternehmen ist auch zu wenig qualifiziertes Personal ein Hindernis bei der Einführung einer vernetzten Produktion. Sie können sich jedoch an externe Dienstleister wenden, die Unterstützung in diesem Bereich anbieten. Mit Spezialwissen und Projekterfahrung können sie den Mangel an Fachkräften im Unternehmen ausgleichen und für Know-how-Transfer sorgen. Nach mangelnden Standards (50 Prozent) auf Platz drei folgen erst auf Platz vier der Bitkom-Studie Sicherheitsbedenken (46 Prozent). Diese sind jedoch keinesfalls zu vernachlässigen, denn die Zahl kritischer Sicherheitsvorfälle in Fertigungsbetrieben ist schon heute alarmierend hoch. Die Auswirkungen von Datenverlust, Datendiebstahl, Spionage oder Sabotage können zudem existenzbedrohend für Unternehmen sein. Daher ist es wichtig, bei der Einführung von Industrie 4.0 auch Sicherheitsexperten mit an Bord zu holen.

Produktion schrittweise vernetzen

Vor Beginn eines Industrie-4.0-Projektes ist es sinnvoll, die Anforderungen an die Lösung zu sammeln und in Teilprojekte aufzuspalten. Dabei ist die Zielvorstellung zu definieren und eine Bestandsaufnahme der bereits zur Verfügung stehenden Daten vorzunehmen. Außerdem sollte geklärt werden, in welcher Form die Daten vorliegen, welche Erkenntnisse man daraus bereits zu Beginn gewinnt und welche zusätzlichen Ergebnisse erwünscht und möglich sind.

Die Umsetzung erfolgt dann sukzessive in Projektabschnitten. Zunächst setzt man die Anwendungsszenarien um, die das beste Kosten-Nutzen-Verhältnis versprechen, wodurch sich schnell erste Resultate einstellen. Gelegentlich ergeben sich bereits in dieser Phase „Quick Wins“, also Teilziele, die schnell zu erreichen sind und einen erkennbaren Nutzen bringen. In diesem Fall lässt sich durch eine kurzfristige Umsetzung die Alltagstauglichkeit nachweisen und häufig sogar das Projekt refinanzieren.

Fortgeschrittene Projekte setzen auf selbstlernende Algorithmen und die Analyse komplexer Zusammenhänge. Wenn Daten aus unterschiedlichen Quellen wie Produktion, Vertrieb und Marketing in einem zentralen „Data Lake“ zusammenfließen, können solche intelligenten Algorithmen daraus zum Beispiel Prognosen über zu erwartende Absatzmengen errechnen. Dadurch können Firmen ihre Liefertreue gegenüber Kunden verbessern und gleichzeitig Rüst- und Lagerkosten senken. Dabei ist es essenziell, standardisierte und wiederverwendbare Technologien einzusetzen. Dies sichert die technologische Skalierbarkeit der Lösung beim Ausrollen von zusätzlichen Anwendungsszenarien und macht die Umsetzung weiterer Teilprojekte günstiger.

David Brockschmidt ist Business Unit Manager Analytics & Data bei Axians IT Solutions ().