Was eine Enterprise Data Fabric leisten muss

Konzepte für die Datenanalyse

02. Dezember 2020, 07:00 Uhr   |  Otto Neuer/jos

Konzepte für die Datenanalyse
© Denodo

Otto Neuer, Regional VP Sales bei Denodo.

Damit Unternehmen auch in hybriden Multi-Cloud-Landschaften ihre Daten optimal nutzen können, bedarf es bekanntermaßen einer leistungsstarken Datenstrategie. Immer mehr Unternehmen setzten daher heute auf das Konzept der „Logical Data Fabric“. Otto Neuer, Regional VP Sales bei Denodo, hat in einer Stellungnahme sechs wichtigsten Kriterien zusammengestellt, an denen sich eine gute Lösung erkennen lassen soll.

Ein moderner Ansatz, um Daten in verteilten Umgebungen zuverlässig managen und analysieren zu können ist eine Logical Data Fabric. Dabei handelt es sich nicht um eine singuläre Out-of-the-box Lösung sondern vielmehr um ein Konzept, das auf die virtuelle Integration, Management und Governance von Unternehmensdaten über alle Datenquellen von „on-premises“ bis Multi-Cloud setzt.

1. Multi-Cloud-Umgebungen meistern: In Unternehmen wachsen derzeit hybride Landschaften heran, die nicht nur Skalierbarkeit und Leistung versprechen, sondern auch die Freiheit vom klassischen Vendor Lock-in. Allerdings bringt die Verteilung der Unternehmensdaten auf mehrere Cloud-Domains und Anbieter auch eine steigende Komplexität mit sich, die von herkömmlichen BI-Systemen nicht umfänglich abgedeckt ist. Eine logische Data Fabric bietet die Möglichkeit, unterschiedliche Cloud-Quellen zu integrieren, damit am Ende alle Daten einer logischen Schicht aggregiert werden.

Eine Data Fabric für den Enterprise-Einsatz platziert separate Instanzen in jeder Cloud-Domain (zum Beispiel AWS, Azure, GCP). Alle Virtualisierungsinstanzen verbinden sich wiederum mit einer übergeordneten Instanz, die den Zugriff koordiniert und einheitliche Analysen in Echtzeit ermöglicht.

2. Aufgaben automatisieren: Data Lakes erstrecken sich in Multi-Cloud-Umgebungen über mehrere Plattformen. Business-Nutzer wie Data Scientists können dabei schnell den Überblick verlieren. Die steigende Zahl externer Quellen sorgt zudem für ein wachsendes Risiko. Datenobjektmodelle und Layouts können ungeplant und unangekündigt geändert werden. Und die Datenabfrage von verschiedenen Plattformen mit unterschiedlichen Performance-Charakteristiken und Latenzen kann schnell Bottlenecks schaffen. All diese Herausforderungen wurden bisher „von Hand“ angegangen. Eine Enterprise Data Fabric kann jedoch in der Lage sein, automatisierte Lösungen anzubieten, um zukünftig steigenden Anforderungen gerecht zu werden.

Logical Data Fabrics setzen Machine Learning oder andere moderne Techniken ein, um manuelle Aufgaben zu automatisieren. Vorteile sind etwa automatische Vorschläge von Datensätzen, die sich zur Analyse eignen (basierend auf den Mustern der Nutzer) oder intelligentes Caching, das die Leistung in der gesamten Datenarchitektur verbessert.

Seite 1 von 3

1. Konzepte für die Datenanalyse
2. Rapid Data Delivery
3. Historische Daten und Datenströme

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Verwandte Artikel

Service-Management

Software-Management