Beim Rechenzentrumsbetrieb sind besonders hohe Sicherheitsanforderungen zu erfüllen. Dies betrifft insbesondere das Datenbank-Management. Die Systemadministratoren müssen jederzeit in der Lage sein, Schwachstellen sowie potenzielle oder tatsächlich auftretende Fehler sofort zu erkennen und geeignete Gegenmaßnahmen zu ergreifen. Deshalb ist ein einheitliches und zentrales Management-System notwendig, das relevante Informationen sofort auf einem zentralen Dashboard anzeigt.

Dass einzelne RZ-Komponenten ausfallen, passiert relativ häufig. Seltener ist es der Fall, dass ein komplettes Rechenzentrum ausfällt. Auch dafür hat der Gesetzgeber Regeln parat. So müssen Rechenzentrums-Betreiber in einigen Branchen einen parallelen und gespiegelten Betrieb sicherstellen. Für den Banken- und Versicherungssektor zum Beispiel schreibt das Kreditwesengesetz (KWG §25a, Absatz 1) vor, dass Geldinstitute über eine adäquate technische und organisatorische Ausstattung sowie ein angemessenes Notfallkonzept für den Ausfall von IT-Systemen verfügen müssen. Ferner geben die Mindestanforderungen an Rechenzentren (MaRisk) vor, welchen Standard ein Rechenzentrum zu erfüllen hat. Selbst für die Örtlichkeit der Rechenzentren gibt es Empfehlungen von öffentlicher Seite, so etwa vom Bundesamt für Sicherheit in der Informationstechnik (BSI) sowohl für den Minimal- als auch den Maximalabstand zweier redundanter Rechenzentren.

Moderne Rechenzentren – im Bild ein Cloud-Datacenter von IBM – stellen sehr hohe Anforderungen an die Lösung für die Datenreplikation. Bild: IBM

Die Vorgabe, redundante Rechenzentren zu betreiben, beruht auf Erfahrungswerten. Hier flossen sowohl die Terroranschläge des 11. September 2001 in New York und Washington D.C. als auch der Tsunami im Indischen Ozean von 2004 ein. Derlei Ereignisse sind in Deutschland zwar rar gesät, doch auch hier können Risikofaktoren wie etwa ein Großbrand, Sprengungen benachbarter Bauwerke bei Abrissarbeiten, Evakuierungen bei Räumung von Bomben aus dem Zweiten Weltkrieg oder Unfälle mit Gefahrguttransportern auftreten. Auch andere Vorfälle können den gleichzeitigen Betrieb zweier Rechenzentren erfordern. Dazu zählt beispielsweise der komplette Ausfall der IT-Systeme, der Netzanbindung oder schlicht Sabotage.

Das BSI kommt zu dem Schluss, dass bei einem Abstand von zehn bis fünfzehn Kilometer die ersten Probleme bei der Übertragung von Daten auftreten können, die sich bei einer redundanten Datenhaltung negativ auswirken könnten. Der Minimalabstand sollte hingegen fünf Kilometer nicht unterschreiten, da sich im Falle von Evakuierungsmaßnahmen beide Rechenzentren im selben Sperrradius befinden könnten.
Durch die neue Datenschutz-Grundverordnung (DSGVO) hat sich die Situation verschärft. Neben der genauen Festlegung, wie personenbezogene Daten übermittelt und verarbeitet werden dürfen, schreibt das Gesetz vor, dass die verarbeitenden Systeme stets auf dem „aktuellen technischen Stand“ zu sein haben. Eine konkrete Definition, wie diese Systeme ausgestattet sein müssen, gibt der Gesetzgeber dabei nicht vor.

Um beiden Forderungen – Datensicherheit und Datenschutz – gerecht zu werden, müssen IT-Entscheider auf automatisierte Lösungen setzen. Eine Replikation von Datenbanken zwischen Rechenzentren ist zu komplex, um sie manuell verwalten zu können. Natürlich gibt es Insellösungen einzelner Datenbankanbieter, diese sind aber auf die Datenbanken des jeweiligen Anbieters beschränkt. Sind verschiedene Datenbanksysteme im Einsatz oder übersteigt die IT-Umgebung eine gewisse Größe, wird es unübersichtlich. Datenbankadministratoren wenden dann einen Großteil ihrer Zeit dafür auf, lediglich den Überblick zu behalten. So bleibt ihnen weniger Spielraum, für den stabilen Abgleich der Datenbanken zu sorgen oder gar in einer Krisensituation rechtzeitig und rasch reagieren zu können.

Ein weiterer Nachteil des Rückgriffs auf proprietäre Datenbank-Management-Systeme ist die Herstellerbindung. Sie erschwert es, den Datenbankanbieter im Falle eines Migrationsprojektes oder einer Erweiterung zu wechseln. Datenbankadministratoren sind außerdem an den Funktionsumfang der herstellereigenen Management-Lösung gebunden. Sind zusätzliche Funktionen erwünscht, lässt sich dies oft nicht umsetzen. Daher sollten sich IT-Entscheider mit plattformunabhängigen Management-Systemen beschäftigen.

Automatisierte Replikation

Replikationslösungen sind häufig herstellerspezifisch – hier im Bild der Aufbau einer Server-Domäne für die Replikation von SAP-Datenbeständen. Bild: SAP

Die Spiegelung von Daten zwischen zwei Rechenzentren erfolgt ähnlich wie die innerhalb eines Rechenzentrums. Es gibt herstellerunabhängige Replikationslösungen, die einige Bedingungen erfüllen sollten. Sie sollten nicht nur die lokalen Datenbanken verschiedener Anbieter administrieren können, sondern auch Cloud- und Hybriddatenbanken. Wichtig ist es hier, dass die gängigsten Plattformen abgedeckt sind, darunter unternehmenskritische Oracle- oder SQL-Server-Datenbanken ebenso wie Open-Source- und NoSQL-Lösungen. Diese Flexibilität sollte auch bei den Zielumgebungen gewahrt sein. So sollte ein Datenbank-Management-System Plattformen wie Microsoft Azure, AWS sowie Messaging-Systeme wie Kafka unterstützen. Dadurch lassen sich zusätzlich zur RZ-Replikation Ressourcen in der Cloud in die Verwaltung einbinden.

Ein automatisiertes, herstellerübergreifendes Replikations-Management führt die Datenspiegelung in Echtzeit durch. Nur so lässt sich eine Ausfallsicherheit der Datenbanken verlässlich sicherstellen. Eine reine Deltasicherung per Backup-Lösung, die den Datenbestand in zeitlichen Intervallen sichert, genügt modernen Ansprüchen an die Hochverfügbarkeit der Unternehmensdaten längst nicht mehr.

Das Datenbank-Management-System bietet neben der eigentlichen Datenbankverwaltung, der Cloud-Migration sowie der Datenbankreplikation auch Werkzeuge, um Daten für die Analyse durch Fachleute aufzubereiten. Mit sicheren Workflows kann man dabei den Großteil der dafür nötigen Zeit einsparen. Ferner gehört zu der Management-Lösung auch die Überwachung der Performance der einzelnen Datenbanken wie auch des Gesamtsystems. Schließlich leistet das System auch bei der kontinuierlichen Weiterentwicklung von Datenbanken im DevOps-Modell seine Dienste. So können Datenbankentwickler ihre Entwicklungszyklen beschleunigen und für eine permanente und sofortige Implementierung ihrer Anwendungen sorgen.

Ein Faktor kommt bei der Betrachtung des Problems hinzu: Mit dem zunehmenden Mangel an IT-Kräften sind auch Datenbankexperten Mangelware. Deren Aufgaben wachsen aber im Zuge komplexer IT-Umgebungen. Daher sollte man sie von automatisierbaren Routineaufgaben entlasten. Alleine das gleichzeitige Management mehrerer Plattformen bindet Ressourcen. Die vorhandene Expertise steht dann für strategisch wichtige Aufgaben wie etwa für die Weiterentwicklung der vorhandenen Datenarchitektur nur begrenzt zur Verfügung. Somit führt an einer automatisierten und plattformunabhängigen Replikationslösung aus vielen Gründen kein Weg vorbei.

Ales Zeman ist Sales Engineering Manager for Central Europe bei Quest Software, www.quest.com.