Im LANline-Gespräch: Thomas Timm, Geschäftsführer von Teradata Deutschland, und Peter Arbitter, Head of Portfolio and Marketing für Enterprise Customers bei Telekom Deutschland. Die beiden erläutern, wie das gemeinsame Data-Analytics-Angebot für den Mittelstand im Detail aussieht. Mit dem Service sollen auch kleinere und mittlere Unternehmen von Machine Learning und künstlicher Intelligenz bei der Auswertung ihrer Daten profitieren können.

LANline: Herr Timm, Teradata und die Deutsche Telekom bieten seit einiger Zeit einen gemeinsamen Dienst für die Datenanalyse an. Wie sieht dies genau aus?

Timm: Durch die Partnerschaft von Teradata und der Deutschen Telekom können auch Mittelständler das Potenzial von Data Analytics für das eigene Geschäft voll ausschöpfen. Dazu bieten wir ihnen Zugang zu leicht nutzbaren Lösungen für Datenanalysen aus der Cloud. Wir bieten ein Pay-as-you-go-Modell und Teradata Vantage als flexibel skalierbare Data-Analytics-Plattform. Beides minimiert das Investitionsrisiko, was ein essenzieller Faktor vor allem für mittelständische Unternehmen ist. Für komplexere Anwendungsfälle stehen Kunden Business-Consultants und Data Scientists zur Seite. Mit entsprechender Branchenkenntnis ausgestattet, beraten sie Entscheider und Anwender darüber, wie diese das Meiste aus ihren Daten herausholen und aus ihnen valide Erkenntnisse für langfristigen Erfolg erhalten.

Arbitter: Ergänzend muss man feststellen dass der Mittelstand sein komplettes Digitalisierungspotenzial derzeit noch nicht ausschöpft. Die meisten Unternehmen sind sich dessen zwar bewusst, aber es hapert noch bei der Umsetzung. Hier setzt unsere Lösung an.

Timm: Das ist richtig. Wir haben es uns zum Ziel gesetzt, all die Hidden Champions in Deutschland zu Digital Champions zu machen. Gemeinsam mit der Telekom kümmern wir uns komplett um die Technologie und machen Datenanalysen für Unternehmen so einfach wie noch nie.

Thomas Timm, Geschäftsführer von Teradata Deutschland: „Das Besondere an unserer Lösung ist, dass sie es Unternehmen ermöglicht, komplexe Datenanalysen über heterogene Systeme hinweg durchzuführen.“ Bild: Teradata

LANline: Welche Leistungen sind denn konkret in Ihrem Datenanalyse-Angebot enthalten?

Arbitter: Der Digital Sales Assistant, kurz D.S.A., der Deutschen Telekom ist ein intelligenter digitaler Verkaufsassistent auf Basis der Technik von Teradata. Er gibt Vertriebsmitarbeitern Prognosen für ihr tägliches Handeln im Verkauf an die Hand, identifiziert zum Beispiel Ansprechpartner oder Cross-Selling-Angebote für eine Kundenansprache. Oder er hilft, Angebote unter saisonalen Einflüssen in ihren Margen zu optimieren. Mit dem D.S.A. wollen wir vielen Kunden Skaleneffekte aus immer wieder gleich oder ähnlich verlaufenden Analyseanforderungen nutzbar machen. Der hochskalierbare Cloud-Dienst auf der Vantage-Plattform unseres Partners basiert auf einer Azure-Umgebung und benötigt nur entsprechende Kundendaten oder Fremddaten, etwa aus dem Internet, aus Social Media oder Geo- und statistische Daten. Die Plattform managt mit ihrem sogenannten Query Grid nicht nur den Im- und Export von Daten, sondern spielt nach den Berechnungen auch die Deltas in die Kundensysteme zurück.

LANline: Derartige Dienste gab es bislang nicht?

Arbitter: Das ist richtig. Wir öffnen heute damit dem Mittelstand den Zugang zu ganz unterschiedlichen Analysefeldern. Die wären für ihn sonst nur mit erheblichem Ressourcen-, Know-how- und Zeit- einsatz möglich. Nennen wir es mal ein Ende-zu-Ende-Rundum-Sorglos-Paket. Wir führen unterschiedliche, strukturierte und unstrukturierte Kundendaten zusammen, analysieren ihren jeweiligen Business-Wert, erzeugen dazu die notwendigen und richtigen Analysemodelle, optimieren diese weiter mit Machine-Learning-Methoden und liefern die Ergebnisse je nach Kundenwunsch aus. Dies geschieht entweder über ein Web-Front-End aus der Cloud oder direkt in das gewünschte Kundensystem hinein.

LANline: Richten Sie sich damit bevorzugt an spezielle Branchen?

Arbitter: Das tun wir ganz bewusst nicht. Das Angebot zielt auf alle Mittelständler in allen Branchen in Deutschland. Aktuell haben wir spezielle Lösungsszenarien für die Fertigung, den Handel und die Immobilienwirtschaft entwickelt. Unsere Lösungen für unsere Fokusbranchen sind mit einer Internet-of-Things- und Kamerasensorik ausgestattet. Dies bedeutet, dass wir die Daten aus unseren technischen Produkten von vornherein in den Analyseszenarien berücksichtigen können. Wir helfen also unseren Kunden, ihre Big Data Lakes sinnvoll anzuzapfen und Nutzen aus ihren Daten zu ziehen.

Peter Arbitter, Head of Portfolio and Marketing für Enterprise Customers, Telekom Deutschland: „Unsere Kunden müssen erkennen,
dass sie ihre Firmen mit Datenanalysen nach vorn bringen.“ Bild: Telekom

LANline: Welche Anforderungen muss ein Anwender erfüllen?

Arbitter: Unsere Kunden müssen erstens erkennen, dass sie ihre Unternehmen mit Datenanalysen nach vorne bringen, dass sie sich also zu einem datengetriebenen Unternehmen wandeln müssen. Und zweitens müssen sie bereit sein, in Analyseszenarien zu investieren. Dies kann sich dann für sie am Ende gleich mehrfach auszahlen. Die Technik sowie das Analyse-Know-how stellt die Telekom mit ihren Datenanalysten, Programmierern für Datenmodelle oder User-Interface-Designern für die späteren Dashboards zur Verfügung.

LANline: Und welche Budgets muss ein Kunde einplanen?

Arbitter: Unsere Proof-of-Concept-Angebote starten bei rund 45.000 Euro. Dabei wird ein Datenausschnitt gemeinsam mit dem Kunden untersucht, um Prognosen und Thesen zu erhärten, die vorher konzipiert wurden. Wenn sich diese bestätigen, erhält er ein klares Bild über seinen Business-Nutzen. Eine bessere Entscheidungshilfe können wir uns kaum vorstellen. Diese Prognose kann er dann zusätzlich über eine Ausweitung der zu untersuchenden Datenpunkte beziehungsweise Filialen oder Sortimente im Retail-Bereich verbessern. Da wir beim D.S.A. vorgefertigte Analyse-Frameworks verwenden, muss der Kunde auch nicht selbst Algorithmen und Analysemodelle entwickeln. Business Analytics und sogar KI werden damit für den Mittelstand bezahlbar. Der System-Administrator kann sich sein Web-Front-End teilweise selbst gestalten, auch ohne Kenntnisse über die dahinter liegenden Analyseprozesse. Um Wartung, Betrieb oder Modell-Anpassungen muss er sich auch nicht kümmern. Die Initialinvestition für unsere Mittelstandskunden hält sich also in Grenzen.

Timm: Mit Teradata Vantage können Unternehmen allerdings nicht nur enorme Datenmengen aus vielen verschiedenen Quellen – ob Sensoren, Maschinen, ERP, CRM, Smartphones und Social Media – zusammenführen und analysieren. Sie können auch von den vielen Tools für Datenvisualisierung, Sprachen sowie Engines rund um maschinelles Lernen für künstliche Intelligenz Gebrauch machen. Das Besondere an Vantage ist, dass es Unternehmen ermöglicht, komplexe Datenanalysen über heterogene Systeme hinweg durchzuführen – und zwar ohne dass der Nutzer ein IT-Experte oder Data Scientist sein muss. Dabei ist Teradata Vantage sowohl On-Premise als auch as a Service verfügbar über die Public Clouds von Google, AWS und Microsoft Azure.

LANline: Bleiben wir beim Thema künstliche Intelligenz. Neben Big-Data-Analysen spielt auch KI eine wichtige Rolle bei Neuentwicklungen.

Timm: Künstliche Intelligenz – sei es im Sinne von Machine und Deep Learning oder Cognitive Computing – braucht Big Data Analytics. Nur wenn eine Maschine riesige Datenmengen aufbereiten und auswerten kann, ist sie in der Lage, kognitive Fähigkeiten ähnlich denen des Menschen zu entwickeln. Unsere Lösung umfasst Engines für maschinelles Lernen mit mehr als 180 vordefinierten Analysefunktionen. Zudem haben wir auf unserer Analytics-Konferenz in Denver, dem Teradata Universe, erst vor Kurzem eine weitere Partnerschaft mit Google Cloud angekündigt. In diesem Rahmen integrieren wir auch Services wie Google Cloud Storage oder Google KI in Teradata Vantage. Daher kann auch ein Rechenzentrumsbetreiber unbedingt von Analytics wie auch von künstlicher Intelligenz profitieren. Die Anwendungsfälle sind vielfältig. Sie reichen von geringeren Betriebskosten hin zur verbesserter Betriebseffizienz und IT-Sicherheit durch KI-gesteuerte Zugriffsrechte für die Datenerfassung und -verarbeitung im Rechenzentrum. Auch lassen sich mit KI und Predictive Analytics Routineaufgaben automatisieren und die Planung der Infrastruktur verbessern.

LANline: Was unternimmt die Deutsche Telekom in diesem Umfeld?

Arbitter: Natürlich sind Machine Learning oder KI bei der Telekom sehr wichtige Themen. Selbst in unserem traditionellen Kerngeschäft wie dem Invoice-Management im Kunden-Service werden zum Beispiel Sprachroboter angelernt, um Kundenanfragen durch eine semantische Sprachanalyse besser zu verstehen. Und ein derartiges Szenario wäre eventuell auch etwas für das Callcenter eines Rechenzentrumsbetreibers.

LANline: Der RZ-Betrieb ist also ebenfalls ein geeignetes Einsatzszenario?

Arbitter: Exakt! Sehr naheliegend ist zum Beispiel das Gebäude-Monitoring, wo man neben dem Energieverbrauch auch Umfeldfaktoren, Lastzeiten und deren Daten für einen ökonomischeren Betrieb verbindet, um die Energieeffizienz zu erhöhen. Ein KI-System würde dann nicht nur diese Daten überwachen, sondern auch Handlungsempfehlungen für die nahe Zukunft abgeben. So könnten beispielsweise Kühlsysteme stärker hochfahren, bevor die Maschinenlasten zunehmen, um einer Überlastung vorzubeugen. Zurzeit untersuchen wir weitere, unterschiedliche Szenarien aus verschiedenen Branchen auf ähnliche Prinzipien, ob sie sich ebenfalls für eine Standardisierung analog zum D.S.A. eignen.

LANline: Herr Timm, Herr Arbitter, herzlichen Dank für das Gespräch.

Dr. Jörg Schröper ist Chefredakteur der LANline.