Was eine Enterprise Data Fabric leisten muss

Konzepte für die Datenanalyse

02. Dezember 2020, 07:00 Uhr   |  Otto Neuer/jos


Fortsetzung des Artikels von Teil 2 .

Historische Daten und Datenströme

5. Historische Daten und Datenströme analysieren: Bisher war der Großteil der zu analysierenden Daten „Data-at-Rest“. Doch heute kommen zunehmend dynamische und Streaming-Quellen hinzu. Daten wie Sensorinformationen, News oder Wetterdaten werden nach und nach im Data-Management und in der Analyse von Unternehmen auftauchen. Dabei werden sie mit den vorhandenen gespeicherten Daten kombiniert. Ein Anwendungsbeispiel sind IoT-Applikationen, die historische Daten mit Datenströmen kombinieren, um Analysemodelle zu schaffen. Wenn diese Modelle im Unternehmen zum Einsatz kommen, lassen sich manuelle Eingriffe reduzieren und maschinelle Entscheidungen zuverlässiger gestalten.

Zu berücksichtigen bei der Konzeption der Data Fabric ist, dass sich Data-in-Motion mit Data-at-Rest kombinieren lässt. Merkmale sind etwa die vereinfachte Nutzung von Data-Streaming-Tools wie Apache Kafka mit strukturierten Daten in einem Data Warehouse.

6. Daten katalogisieren: Wer Daten aus vielen unterschiedlichen Quellen nutzt, sollte sich um eine unternehmensweit einheitliche Definition (semantisches Modell) kümmern. Wenn ein Data Scientist etwa wissen will, welche Produkte ein Kunde erworben hat, in welchem Channel, und welche Auswirkung dabei die Garantie-Laufzeit hatte – dann zählt es, wie „ein Kunde“ definiert ist. Ohne dokumentierte Definitionen von Begriffen und einer Auflistung der logischen Abhängigkeiten der Begriffe wird es schnell zu unbrauchbaren Ergebnissen kommen.

Eine Data Fabric sammelt Daten aus dem gesamten Unternehmen und ist laut Neuer das beste Tool, um das vorhandene Wissen im Unternehmen in einem semantischen Modell abzubilden. Dabei kann die Data Fabric auch als Katalog dienen, um Ort, Typ und Format der Daten ebenso aufzulisten wie die Beziehung der Datensätze zueinander.

Auf diese Weise lassen sich Daten, Datensätze und Beziehungen einfach und zentral erkunden. Eine intelligente Suche ist daher ein wichtiges Feature einer guten Data Fabric – die Suche erleichtert das Verständnis der Daten und lässt Business User leichter und zuverlässiger mit den Daten arbeiten und Wert aus ihnen schöpfen.

Weitere Informationen stehen unter www.denodo.com/de zur Verfügung.

Seite 3 von 3

1. Konzepte für die Datenanalyse
2. Rapid Data Delivery
3. Historische Daten und Datenströme

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Denodo

Service-Management

Software-Management