Gastbeitrag von Snowflake

Schritte hin zu Cloud-Data-Analytics

12. Februar 2021, 07:00 Uhr   |  Arjan van Staveren/am

Schritte hin zu Cloud-Data-Analytics
© LANline

Gartner prognostiziert, dass 90 Prozent der Unternehmensstrategien bis 2022 explizit Informationen als kritisches Unternehmensvermögen ansehen und Analytik als wesentliche Kompetenz nennen werden. Gleichzeitig gehen die Marktforscher jedoch davon aus, dass 80 Prozent der Unternehmen bis dahin gar nicht in der Lage sein werden, datengestützte Erkenntnisse in Geschäftsergebnisse zu verwandeln. Noch immer scheitern die Unternehmen an fehlendem Fachwissen und Datensilos, die verhindern, dass Informationen ihr volles Potenzial entfalten. Eine Lösung kann die Datenanalyse mittels Cloud-Computing sein.

Um Cloud-Data-Analytics erfolgreich zu betreiben und langfristig ins Geschäftsmodell integrieren zu können, sollten Unternehmen und IT-Verantwortliche folgende fünf Schritte bei der Vorbereitung und Umsetzung beachten:

1. Bestandsaufnahme

Zu Beginn sollte eine Bestandsaufnahme des aktuellen Stands der Analytik im Unternehmen sowie der technischen Möglichkeiten erfolgen. Dies betrifft zunächst vor allem die Analyse-Ressourcen und die dafür relevanten Datenbestände. Es gilt zu klären, welche Datenmodelle und -strukturen vorhanden sind, ob sich die Daten in der Cloud oder in On-Premise-Lösungen befinden oder ob sie in Silos fest stecken. Außerdem sollte klar sein, um wie viele Daten es sich handelt, wie vollständig und wie zugänglich sie sind und aus welchen Quellen sie stammen und ob es möglich ist, sie schnell und sicher innerhalb des Unternehmens und mit Partnern, Lieferanten, Anbietern und Kunden auszutauschen.

Auch die Datenpipelines verdienen Beachtung: Wo erfolgt die Durchführung von Datentransformationen? Welche Ingestion-Tools kommen zum Einsatz und ist die Arbeit mit Batch- und Streaming-Daten möglich? Kann man auch ein steigendes Datenvolumen aus einer wachsenden Anzahl von Quellen bewältigen? Damit zusammenhängend ist auch die Frage zu klären, ob eine Skalierung der IT-Infrastruktur in den nächsten zwei, drei oder fünf Jahren problemlos erfolgen kann, um mehr Daten, mehr Abfragen und mehr Benutzer zu bewältigen und ob dies manuell oder automatisiert ablaufen müsste. Außerdem sollten mögliche Konflikte zwischen Speicher- und Rechenressourcen und das Budget abgeklärt sein.

Nicht zuletzt sind auch die aktuellen Cloud-Ressourcen relevant, wie etwa in welchen Clouds die vorhandenen Anwendungen laufen und ob es deren Anbieter ermöglichen, neue Business-Intelligence- und Data-Science-Tools sowie Datenquellen einfach hinzuzufügen und über eine einzige zentrale Plattform zu nutzen.

2. Eine solide Grundlage

Nötig ist eine umfassende Cloud-Daten-Plattform, deren Architektur die erforderliche Erweiterbarkeit bietet, um die bereits vorhandenen Daten, Tools und Funktionen zu nutzen und gleichzeitig moderne Tools, Prozesse und Verfahren zu integrieren.

Alle Daten in einer einheitlichen Plattform zu vereinen, öffnet Türen zu neuen Möglichkeiten. Das gilt insbesondere, wenn diese Daten auf konsistente Weise gespeichert und verwaltet sind und die nahezu unbegrenzte Kapazität der Cloud in Gebrauch sein kann, um jeden Workload einfach und unabhängig voneinander zu skalieren. Eine solche Cloud-Data-Plattform ermöglicht es, Daten einfach in ihrer Rohform zu speichern, diese Daten sofort zu untersuchen und eine breite Palette von gleichzeitigen analytischen Anwendungsfällen zu unterstützen.

3. Umzug in die Cloud

Bevor Unternehmen damit beginnen können, die Daten in die Cloud-Data-Plattform zu migrieren, sollte geklärt sein, welche Datenquellen zu analysieren sind. Gibt es historische Datensätze, müsste das Unternehmen eine einmalige Übertragung dieser historischen Informationen einrichten. Wenn geplant ist, diese Daten bei neuen Transaktionen zu aktualisieren, ist zudem eine Pipeline erforderlich, die kontinuierliche Updates verarbeiten kann.

Falls die Daten in einem öffentlichen Objektspeicher gesichert sein sollen, beispielsweise in Amazon S3, Azure oder Google-Cloud-Plattform, muss sichergestellt sein, dass die Datenplattform eine Multi-Cloud-Architektur unterstützt. Das maximiert die Bereitstellungsoptionen und gewährleistet Ausfallsicherheit. Durch die Konsolidierung der Daten an einer zentralen Stelle – sei es an einem einzigen Standort oder über mehrere Cloud-Repositories hinweg – können alle Benutzer im Unternehmen diese nahtlos in mehreren Clouds und Regionen ausführen und dadurch zentral und einheitlich nutzen.

4. Pilotprojekt starten

Mit einem Cloud-Service ist es möglich, klein anzufangen und das analytische Ökosystem dynamisch zu erweitern. Es empfiehlt sich, zunächst einen überschaubaren Anwendungsfall als Pilotprojekt auszuwählen – idealerweise einen solchen, der sich unmittelbar auf das Geschäft auswirkt. Dieser muss für die Geschäftsführung nachvollziehbar sein und einen nachweisbaren Return on Investment (ROI) aufweisen. Die Mitarbeiter sollten dabei in der Lage sein, Self-Service-Analysen über Dashboards, Portale, Scorecards und andere benutzerfreundliche Oberflächen durchzuführen. Darüber hinaus können Power-User einen Schritt weiter gehen, indem sie Daten mit BI-Tools visualisieren, benutzerdefinierte Berichte erstellen und die Ergebnisse teilen.

5. Wachstum

Die Ergebnisse einer Analytik-Initiative können das Interesse an weiteren Initiativen wecken. Dabei sollte man stets im Hinterkopf behalten, wie die grundlegenden BI- und Berichtsanforderungen des Unternehmens erfüllt sein können, während es gleichzeitig für fortgeschrittene Analyse- und Data-Science-Initiativen positioniert ist. Wichtig ist die Einbeziehung der jeweiligen Fachbereichsleiter, um das Analytik-Potenzial in ihren jeweiligen Abteilungen zu ermitteln. Im Hinblick auf die langfristigen Auswirkungen von Analytik auf ein Unternehmen sollte eine Identifizierung der dafür erforderlichen Mitarbeiter, Prozesse und Techniken für erfolgreiche Cloud-Data-Analytics erfolgen.

Fazit

Die Cloud ist ein gute Basis für die Analytik, da Unternehmen hier alle benötigten Daten kostengünstig speichern, analysieren und nutzen können, um Bedrohungen zu erkennen, neue Produkte und Dienstleistungen zu entwickeln, Empfehlungssysteme zu verbessern und auf andere Weise die Geschäftsergebnisse zu verbessern. Selbst kleine Unternehmen mit begrenzten Budgets können hier die Vorteile nutzen, die früher nur großen Unternehmen mit gut ausgestatteten IT-Teams zur Verfügung standen.

Bei der Einführung von Cloud-Data-Analytics geht es jedoch nicht nur darum, die Technik von gestern vor Ort wiederzuverwenden oder bestehende analytische Anwendungen und Datenbanken aus dem Rechenzentrum in die Infrastruktur eines Cloud-Anbieters zu verschieben. Um die Leistung und den Umfang der Cloud richtig zu nutzen, sind eine neue Denkweise, neue Management-Prinzipien und neue, für die Cloud entwickelte Anwendungen erforderlich.

Arjan van Staveren ist Managing Director Major Accounts DACH bei Snowflake, www.snowflake.com.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Snowflake

Analytics