Data Gravity erschwert Multi-Cloud-Infrastruktur

Cloud-Ressourcen flexibel integrieren

11. November 2015, 6:00 Uhr | Herbert Bild, Solutions Marketing Manager bei Netapp, www.netapp.com/de/solutions/data-fabric./pf

Die Digitalisierung von Geschäftsmodellen treibt den IT-Einsatz in den Unternehmen weiter voran. Dadurch fordern die Fachbereiche entsprechend mehr IT-Ressourcen vom CIO ein. Um die Anforderungen nach Flexibilität und bezahlbaren IT-Kapazitäten erfüllen zu können, integrieren IT-Verantwortliche heute gerne Ressourcen aus der Cloud. Diese nahtlos in die bestehende IT-Infrastruktur einzubinden, kann sich jedoch als echte Herausforderung erweisen.

Bei der Einbindung von Cloud-Ressourcen erleben IT-Experten immer wieder den Effekt der sogenannten "Data Gravity". Dieser bremst IT-Modernisierungsvorhaben aus, da auch Bits und Bytes im übertragenen Sinn den Gesetzen der Schwerkraft unterliegen. Sie haben nämlich die Tendenz, sich an eine bestehende Infrastruktur zu heften. Diese Trägheit resultiert daraus, dass Daten Eigenschaften wie beispielsweise ihre Größe oder eine bestimmte Sicherheitsklasse besitzen. Wer etwa eine Storage-Infrastruktur im PByte-Bereich aufbaut, wird diese aufgrund der riesigen Datenmenge nur sehr schwer auf eine neue Plattform migrieren können.
Benötigt eine Geschäftsanwendung einen Hochleistungs-Server mit niedrigsten Latenzen, gelingt dort eine Einbindung neuer IT-Ressourcen nur dann, wenn diese vergleichbare Leistungsdaten aufweisen. Schließlich kann es auch rechtliche Rahmenbedingungen geben, die es erforderlich machen, dass ein Unternehmen kundenbezogene Informationen nur auf speziell gesicherten Servern oder etwa Rechenzentren in Deutschland verarbeiten darf. Einen Umzug dieser Daten in eine Private Cloud erschwert der Effekt der Data Gravity deutlich.
 
Cloud nicht als Einbahnstraße
Auf die Cloud zu verzichten, ist längt keine Option mehr. Immer mehr Unternehmen in Deutschland setzen auf diese Technik. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Public-Cloud-Infrastrukturen eröffnen Unternehmen neue Wege, bestehende Datenbestände auszuwerten und mit neuen Daten innovative Dienstleistungen oder Produkte anzubieten. Jedoch stellen sich die Integration von Datensilos sowie ein übergreifendes und zentrales Management der Datenplattformen immer wieder als Hürden heraus. Wer seine Daten einmal erfolgreich in die Public Cloud übertragen hat, trifft auch dort wieder auf die Data Gravity. Denn es ist nur schwer möglich, die einmal ausgelagerten Datenbestände wieder ins eigene Rechenzentrum zurückzuholen. Zu hoch war der zeitliche Aufwand der initialen Übertragung in die Cloud, beispielsweise aufgrund der notwendigen Datenkonvertierung.
Es gibt heute aber bereits Techniken, um die Cloud-Ressourcen unterschiedlicher Anbieter zu integrieren und flexibel zu nutzen. Grundlage dafür ist ein Storage-Betriebssystem, das Funktionen für Integration, Verwaltung oder Replizierung von Daten über Clouds hinweg ermöglicht. Bei der Auswahl eines geeigneten Storage-Betriebssystems sollten Unternehmen darauf achten, dass sich Cloud-Infrastrukturen verschiedener Anbieter und On-Premise-Systeme von zentraler Stelle aus verwalten und steuern lassen. Gleichzeitig muss gewährleistet sein, dass sich Daten zwischen diesen Ressourcen schnell und einfach transportieren lassen. Andernfalls läuft das Unternehmen Gefahr, nur über kostenintensive Migrationsprojekte die operativen Daten von einer Cloud in das eigene Rechenzentrum oder in eine andere Cloud verschieben zu können.
 
So funktioniert die hybride Cloud
Eine solche hybride Cloud wird beispielsweise mit dem Storage-Betriebssystem Netapp Ontap sowie dem Service "Netapp Private Storage for Cloud" zur Realität, und die Data Gravity ist außer Kraft gesetzt. Bestehende On-Premise-Storage-Infrastrukturen lassen sich dabei flexibel mit Cloud-Ressourcen unterschiedlicher Anbieter erweitern: Um die Services der Hyperscale-Provider wie Amazon AWS, IBM Softlayer oder Microsoft Azure zu integrieren, arbeitet der Hersteller mit Colocation-Anbietern zusammen.
Provider wie Equinix haben ihre Standorte in unmittelbarer Nähe der großen Cloud-Rechenzentren und sind mit ultraschneller Netzverbindung mit niedriger Latenz angebunden. Dort platzieren Unternehmen ihre entsprechend geeigneten Storage-Systeme und replizieren ihre On-Premise-Daten in die Umgebung des Colocation-Anbieters. Sobald diese dort gespeichert sind, kann der Anwender die Cloud-Services der Hyperscaler nutzen. Der Vorteil: Unternehmen erhalten Zugriff auf die flexibel nutzbaren IT-Ressourcen aus der Cloud und behalten dennoch die volle Kontrolle über ihre Daten, die ja weiterhin in den Colocation-Centern gespeichert sind. Auf der Basis der Ontap-Technik gelingt so die Integration beliebiger weiterer Cloud-Provider und die Nutzung weltweiter Cloud-Ressourcen.
Wer eine Multi-Cloud-Infrastruktur erfolgreich realisiert hat, kann damit die im Unternehmen vorhandenen Speichersilos einzelner Fachabteilungen oder Standorte auflösen. Erst mit dem Zusammenführen dieser Datensilos zu einer Gesamtlösung wird es möglich, zum Beispiel neue Big-Data-Strategien wirkungsvoll umzusetzen und kundenorientierte Prozesse über alle Abteilungen hinweg zu etablieren. Grundlage dieser Datenintegration sind die erwähnten Storage-Betriebssysteme, die ein Virtualisierungs-Layer über die Speicherlösungen legen.
Zudem können Unternehmen damit dynamisch die anfallenden Workloads und Daten über alle Ressourcen hinweg verschieben. Treten beispielsweise Lastspitzen auf, lassen sich Workloads auf schnelle Flash-Systeme im eigenen Rechenzentrum (On Premise) verschieben. Sind sehr große Datenmengen zu verarbeiten, kann das Unternehmen einfach zusätzliche Ressourcen aus Public Clouds hinzubuchen.
 
Ausblick
Das Multi-Sourcing wird sich im Rechenzentrum weiter durchsetzen. Wo die IT noch erhebliche Wertschöpfung im Kerngeschäft erbringt, wird On Premise auch weiterhin erste Wahl bleiben. Hoch standardisierte Services jedoch wie etwa Backup und Infrastruktur-Dienste kommen künftig immer mehr als Managed Services oder in der Public Cloud zur Ausführung. Das Rechenzentrum wird eine Koexistenz verschiedener Betreibermodelle erleben und damit auch den weiteren Einzug von Cloud-Techniken. Um die Flexibilität der Angebote ohne die Last der Data Gravity nutzen zu können, sollten CIOs bei ihrem Storage-Anbieter nach einem Speicherbetriebssystem fragen, das die benötigte Wahlfreiheit liefert.

Um die Services der Hyperscale-Provider wie Amazon AWS, IBM Softlayer oder Microsoft Azure zu integrieren, arbeitet Netapp beispielsweise mit Colocation-Anbietern zusammen. Bild: Crisp Research

Daten verfügen je nach Eigenschaft und Sicherheitsklasse über eine bestimmte Trägheit. Diese sogenannte "Data Gravity" macht die Daten unterschiedlich migrierbar. Bild: Crisp Research

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Yes Telecom Germany GmbH

Weitere Artikel zu Ingenico

Weitere Artikel zu starline Computer GmbH

Matchmaker+