Der aktuelle, vom Bitkom beauftragte Cloud-Monitor der KPMG zeigt, dass 2018 rund 63 Prozent der Cloud-Nutzer mit Störungen im Produktivbetrieb zu kämpfen hatten. Ganz oben auf der Ursachenliste stehen technische Probleme auf Seiten der Cloud-Provider, gefolgt von einer unzureichenden Netzwerkanbindung und Problemen in der IT-Infrastruktur der Anwender. Als mögliche Lösung gilt eine Hybrid-Cloud-Strategie.

Die Leistungsfähigkeit und das Sicherheitslevel einer Cloud sind seit ihrer Geburtsstunde das A und O für viele Unternehmen. Daran hat sich bis heute kaum etwas geändert. Die Versprechen hinsichtlich dieser beiden Aspekte können nur wenige Anbieter halten. Die Gründe sind vielfältig: Eine Hauptursache für die verminderte Verfügbarkeit von Diensten großer Anbieter liegt in der großen Anzahl an Kunden, die sich die Cloud-Hardware teilen. Diese ist genau wie die veraltete Technik auf Seiten vieler Dienstleister dem Ansturm schlicht nicht gewachsen. So wachsen viele Anbieter exorbitant schnell, ohne für die erforderlichen technischen Grundlagen zu sorgen, und setzen viel zu oft auf eine unausgereifte Server-Infrastruktur. Verteilte Systeme, die für den notwendigen Lastausgleich sorgen könnten, sind viel zu selten zu finden. Ihr Übriges tun der schleppende Netzausbau in Deutschland, fehlerhafte Wartungsarbeiten, unvorhersehbare Probleme und natürlich der große Preisdruck.

Ähnliches gilt für die proklamierten Sicherheitslevels. Viele Anbieter sprechen von DSGVO-Konformität, 100-prozentiger Datensicherheit und Datenschutz – Schlagwörter, die zumindest auf den ersten Blick überzeugen. Doch wer ins Kleingedruckte oder unter die Motorhaube der Anbieter schaut, wird nicht selten eines Besseren belehrt. So entpuppt sich die Mehrheit der Ende-zu-Ende-Verschlüsselungen als löchriges Sicherheitsnetz. Das Problem: Der Schlüssel liegt in aller Regel auf den Servern der Hosting-Provider, die ihn dort für die Entschlüsselung nutzen. Dadurch kann aber nicht nur der Kunde darauf zugreifen: Tatsächlich ist er im laufenden Betrieb für den Anbieter sowie potenzielle Angreifer in Klartext auslesbar. Das bedeutet auch, dass bei der Mehrheit der Unternehmen das Hintertürchen für Metadaten-Scans immer offensteht – eine Währung, mit der viele Nutzer unwissentlich draufzahlen.

Und die eigene IT-Infrastruktur der Unternehmen? Sie ist den Anforderungen in aller Regel nur selten gewachsen, ein bedarfsgerechter Aufbau ist mit zu hohen Kosten verbunden. Wer dennoch darauf setzt, sollte auf skalierbare Lösungen wie etwa einen SDS-Cluster (Software-Defined Storage) setzen, denn diese lassen sich jederzeit erweitern. Experten raten Unternehmen dazu, die Zügel hier selbst in die Hand zu nehmen und für die Hochverfügbarkeit ihrer eigenen Dienste zu sorgen. Denn um Daten von einem Rechenzentrum zum Kunden zu transportieren, sind viele Player nötig – und das birgt Risiken. Wem die Erstanschaffungskosten für Server-Hardware zu hoch sind, ist bei einem Hosting-Provider besser aufgehoben.

Der generelle Verzicht auf Public-Cloud-Nutzung ist aufgrund der zahlreichen Vorteile der Cloud selten eine Option. Die Herausforderung für Unternehmen liegt folglich darin, das richtige Angebot herauszufiltern und ein passgenaues Setup aufzubauen. Der Preis darf dabei nicht das wichtigste  Auswahlkriterium sein.

Automatische Synchronisation in der Hybrid-Cloud

Immer stärker in den Fokus gerät in diesem Spannungsfeld die sogenannte Hybrid Cloud. Schon länger ist die Rede davon, dass diese das Beste aus zwei Welten vereine. Denn Anwender können in diesem Lösungsansatz ihre eigenen Ressourcen und Programme nutzen, aber jederzeit Rechenleistung oder andere Ressourcen vom Cloud-Provider abrufen, ohne die eigene Infrastruktur aufrüsten zu müssen. Es ist vor allem die Kombination von lokalem NAS (Network-Attached Storage) mit Cloud-Speicher, der für den Mittelstand eine gute Lösung sein könnte (Bild 1). Jeder Server in einem Rechenzentrum oder einer Niederlassung kann in diesem Szenario als Gegenpol zur Public Cloud dienen. Doch ein Hybrid-Cloud-Setup wie dieses garantiert noch nicht automatisch Hochverfügbarkeit und Sicherheit. Hier gibt es einiges zu beachten, sowohl hinsichtlich der Server als auch bezüglich Backup, Synchronisation, Backend-Software, Clients, Provider-Wahl, RZ-Standort und Software-Defined Storage.

Ein zentraler Server stellt den Zugriff auch bei Abbrüchen der Internetverbindung sicher. Zudem spart die lokale Datenablage Speicherplatz auf den PCs, Laptops oder anderen Geräte. Dabei sollten Unternehmen nie nur auf ein einziges, Cloud-basiertes Backup setzen. Denn es gibt wahrscheinlich keinen Cloud-Anbieter, der im Falle eines Datenverlusts die Verantwortung übernehmen würde. Möglich ist das lokale Backup auf eigenen Rechnern, aber auch auf einem zentralen Server, auf den alle Mitarbeiter Zugriff haben. Bei einem Ausfall springen dann entweder Cloud oder NAS ein. Regelmäßige Backups bilden ein Sicherheitsnetz, wenn Daten verloren gehen – auch in der Private Cloud. Unternehmen profitieren dann zusätzlich von einer deutlich schnelleren Wiederherstellungszeit, da sie die Daten nicht alle aus der Cloud laden müssen.

Bild 2. Mittels inkrementeller Backups (Delta Sync) lassen sich unternehmensinterne Datenbestände in der Public Cloud sichern, ohne die Internetanbindung allzu sehr zu belasten. Bild: Luckycloud

Inkrementelle Backups (Delta Sync) machen eine Hybrid-Lösung inzwischen besonders interessant, da die automatisierte Synchronisation beider Speicherkonzepte einen konsistenten Datenbestand sicherstellt und vor allem auch beschleunigt. Ein gängiger Drive-Client spart zwar Speicherplatz und Kosten, erhöht aber die benötigte Internet-Bandbreite. Gerade bei großen Dateien von mehreren hundert GByte kommt es so zu Verzögerungen. Delta Sync lädt bei Dateiänderungen nur die modifizierten Teile. So entfällt ein beträchtlicher Anteil an Traffic. Das spart Kosten und senkt sowohl die Last im lokalen Netzwerk als auch die des Internetanschlusses deutlich. Die CPU-Auslastung des Servers kann sich dadurch allerdings erhöhen. Denn der Server muss die einzelnen Datenblöcke wieder zusammenführen und dafür Sorge tragen, dass sich einzelne Versionen wiederherstellen lassen.

Letztlich gilt es, Vor- und Nachteile abzuwägen. Hier lohnt ein Blick auf weitere positive Aspekte, etwa die verminderte Gefahr von korrumpierten Dateien. Bricht beispielsweise die Internetverbindung ab oder fallen lokale Computer aus, ist nur die zuletzt übertragene Änderung beschädigt und der problemlose Wechsel auf den vorherigen, funktionierenden Zustand möglich. Zugleich lassen sich je nach Software gezielt einzelne Versionen wiederherstellen und somit jederzeit unerwünschte Änderungen rückgängig machen.

Generell erhöht sich bei den meisten Softwareimplementierungen von inkrementellen Backups die Zeit zur Wiederherstellung im Recovery-Fall deutlich mit der Anzahl der Sicherungspunkte. Für einige Dienste wie zum Beispiel Seafile – die Open-Source-Software des gleichnamigen chinesischen Herstellers – trifft dies jedoch nicht in diesem Ausmaß zu. Dort ist ein effizientes Datenmodell implementiert, das auf Git aufbaut. Die Ablage von Daten und Änderungen erfolgt dadurch ohne viel Overhead. Gleichzeitig ist sowohl der Abruf als auch die Übertragung schnell und ressourcensparend möglich. In diesen Fällen steigt auch die CPU-Last bei Nutzung von Delta Sync deutlich geringer. Bei der Backend-Software wiederum entscheidet die Art des Datentransfers. Viele Alternativen, darunter das erwähnte Seafile, schlagen inzwischen die Leistung von WebDAV um Längen. Die Desktop-Clients müssen Änderungen automatisch syncronisieren, um einem konsistenten Datenbestand Rechnung zu tragen.

Ein mittelständisches Unternehmen sollte für seine Hybrid Cloud zwei Internet-Provider heranziehen: Kommt es zu einer Störung im Netz, übernimmt das zweite. Nutzt man für die Datenablage eine Client-seitig verschlüsselte Zero-Knowledge-Cloud, liegen die Schlüssel und damit die Datenhoheit einzig und allein beim Nutzer. Ein Server-Standort in Deutschland verhindert eine Datenverarbeitung in Drittländern. Erfolgt die Ablage der Daten in einem hochverfügbaren SDS-Cluster, sorgen diese für maximale Skalierbarkeit. Denn Software-Defined Storage liefert – mitunter Open-Source-basiert – ein hochverfügbares, verteiltes Dateisystem.

Die Vorteile eines durchdachten Hybrid-Cloud-Settings reichen von hoher Skalierbarkeit und Leistungsfähigkeit bis zur Ausfallsicherheit und können für viele Unternehmen gegenüber den Nachteilen überwiegen. Dabei stellen effiziente Synchronisationsdienste inzwischen den Zugriff auf stets aktuelle Daten sicher – auch über mehrere eigene Geräte hinweg.

Luc Mader ist Geschäftsführer von Luckycloud, www.luckycloud.de.