Was eine Enterprise Data Fabric leisten muss

Konzepte für die Datenanalyse

02. Dezember 2020, 07:00 Uhr   |  Otto Neuer/jos


Fortsetzung des Artikels von Teil 1 .

Rapid Data Delivery

3. Rapid Data Delivery ermöglichen: 80 Prozent der befragten Unternehmen im TDWI-Report 2020 wünschen sich schnellere Analysen. 77 Prozent sagen „Echtzeit oder Nahe-Echtzeit“ sei wichtig für ihren Unternehmenserfolg. Die Datenlatenz muss sinken – mit Rapid Data Delivery. Drei Beispiele für den Einsatz dieser Technik sind Pushdown Optimization, Caching und Data Shipping.

Pushdown Optimization nutzt untergeordnete Systeme wie Datenbanksysteme des Cloud-Hosters, um Teile der Query auszuführen. Caching sorgt dafür, dass die meistgenutzten Datensätze und Ergebnisse lokal auf der rechenstärksten Plattform gespeichert werden. Data Shipping bedeutet, dass Datenquellen nicht immer gleich, sondern abhängig von Größe und Bedeutung behandelt und somit schneller verarbeitet werden. Eine Data Fabric mit diesen drei Funktionen bietet dynamische Query-Optimierung und unterstützt massive Parallel Processing Engines – und steigert so die Leistung des gesamten Data-Managements.

4. Data Discovery und Data Science unterstützen: Unternehmen setzen verstärkt auf Data Science und benötigen Techniken, die moderne Analytics-Ansätze unterstützen. Die iterative Natur von Analysemodellen verlangt danach, dass zu jeder Zeit klar ist, welche Daten wo im Unternehmen verfügbar sind. Eine Übersicht reicht jedoch nicht aus. Nutzer müssen auch die passende Autorisierung haben, um die Daten via Self-Service nutzen zu können. Zudem sollten sich die Quelldaten einfach in flexible Datenmodelle überführen lassen. Dies ermöglicht es, verschiedene Auswertungen einfacher durchzuführen.

Eine Enterprise Data Fabric sollte Zugang zur gesamten Datenlandschaft bieten und alle Datensätze an das jeweilige Data-Science-Projekt ausliefern, sei es via BI-Frontend, APIs oder Notebooks. Der Vorteil der Data Fabric liegt darin, dass sie es erlaubt, logische Modelle über die Quelldaten zu legen. So können Data Scientists dieselben Quelldaten in verschiedenen Anwendungskontexten nutzen und ihre Analysemodelle iterativ verbessern und untereinander teilen.

Seite 2 von 3

1. Konzepte für die Datenanalyse
2. Rapid Data Delivery
3. Historische Daten und Datenströme

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Denodo

Service-Management

Software-Management