RZ-Planung im Sinne der Verfügbarkeit

Die Tücken der Hochverfügbarkeit

Mit der Digitalisierung wächst die Abhängigkeit der Unternehmen von ihrer IT, doch nicht alle Systeme müssen gleich ausfallsicher sein – welche Verfügbarkeit nötig ist, hängt vom konkreten Anwendungsfall ab.
Mit der Digitalisierung wächst die Abhängigkeit der Unternehmen von ihrer IT, doch nicht alle Systeme müssen gleich ausfallsicher sein – welche Verfügbarkeit nötig ist, hängt vom konkreten Anwendungsfall ab.
© Dell Technologies

Da die meisten Unternehmen inzwischen von ihrer IT abhängig sind, ist Ausfallsicherheit für sie ein zentrales Thema und nicht selten eine Frage des wirtschaftlichen Überlebens. Betriebsunterbrechungen bremsen Geschäftsprozesse aus und verursachen oft enorme Kosten. Doch eine hohe oder sogar höchste Verfügbarkeit ist ebenfalls ein Kostenfaktor, allerdings nicht für jedes System erforderlich. Wie also sollte man sein Rechenzentrum und die IT-Infrastruktur sinnvoll planen?

Wie sehr sie von einer funktionierenden IT abhängen, ist vielen Unternehmen erst seit Beginn der Corona-Pandemie so richtig klar geworden, als ihre Angestellten räumlich und manchmal auch zeitlich getrennt zusammenarbeiten mussten. Waren Anwendungen und Daten nicht verfügbar, standen plötzlich Geschäftsprozesse still. Zwar können es die meisten Unternehmen durchaus verschmerzen, wenn Beschäftigte eine halbe Stunde lang nicht auf File­shares zugreifen können oder keine Mails bekommen – kritischer sind jedoch Ausfallzeiten in Bereichen, in denen es beispielsweise um hohe Umsätze oder sogar die Gesundheit von Menschen geht. Hierzu zählen hochfrequentierte Onlineshops oder auch Systeme in Krankenhäusern sowie bei Wasser- und Energieversorgung oder zur Steuerung von Produktionsanlagen in der Industrie. Eine Verfügbarkeit von 99,9 Prozent reicht für sie nicht aus, denn dies entspricht einer Downtime von fast neun Stunden pro Jahr beziehungsweise knapp 44 Minuten pro Monat. In einer Büroumgebung bekommen Beschäftigte von solchen Ausfällen dagegen unter Umständen nicht einmal etwas mit, etwa wenn sie während der Mittagspause oder nach Feierabend auftreten. Das BSI klassifiziert Hochverfügbarkeit mit einer Mindestverfügbarkeit von 99,99 Prozent, was einer Ausfallzeit von 53 Minuten pro Jahr entspricht. Höchstverfügbarkeit beginnt dieser Klassifizierung zufolge bei den berühmten fünf Neunen – 99,999 Prozent – und einer jährlichen Ausfallzeit von weniger als sechs Minuten. Das jedoch ist reine Theorie, denn die tatsächliche Verfügbarkeit von Systemen, Anwendungen und Daten lässt sich nur schwer vorhersagen beziehungsweise im Vorfeld in Zahlen ausdrücken.

Lediglich für die Vergangenheit können Unternehmen anhand der Ausfälle innerhalb eines bestimmten Zeitraums eine Verfügbarkeit ermitteln, die allerdings nur bedingt aussagekräftig für die Zukunft ist – zu vielfältig sind die Ursachen von Ausfällen, zu zufällig treten sie auf. Hinzu kommt, dass eine Verfügbarkeitsangabe in Prozent nichts darüber aussagt, wie sich die Ausfallzeit über das Jahr verteilt. Ein System, das jede Stunde für eine Sekunde nicht zu erreichen ist, hat rein rechnerisch eine deutlich geringere Verfügbarkeit als ein System, das einmalig für eine halbe Stunde ausfällt – je nach Einsatzgebiet kann es dennoch die bessere Wahl sein. Zudem existieren zwischen den Systemen kleine und größere Abhängigkeiten, sodass man ihre Verfügbarkeit nicht isoliert betrachten darf. Ist eine Anwendung verfügbar, aber die dahinterstehende Datenbank nicht, dann können Beschäftigte auch nicht mit dieser Anwendung arbeiten.

Risiken durch Redundanz reduzieren

So wichtig eine hohe Verfügbarkeit von Systemen, Anwendungen und Daten für die meisten Unternehmen ist, so schwierig ist ihre Umsetzung. Das zeigt schon ein Blick auf die möglichen Ursachen von Ausfällen, die von Hardwaredefekten über Bedien- und Konfigurationsfehler bis hin zu Stromausfällen, Cyberattacken und Umweltkatastrophen reichen. Durch Redundanz lassen sich viele dieser Risiken abfangen – was auch die hohen Kosten von Hoch- und Höchstverfügbarkeit erklärt.
Eigentlich müssten sämtliche Komponenten von IT- und Rechenzentrumsinfrastruktur mehrfach vorhanden sein, sogar das gesamte Rechenzentrum selbst. Das lohnt sich allerdings nur bei wirklich hohen Anforderungen und in der Regel nicht für das Gros von Anwendungen und Daten. Daher müssen Unternehmen sorgfältig überlegen, für welche Systeme sie welche Verfügbarkeit benötigen, also wie oft und lange diese ausfallen dürfen und welche Datenverluste hinnehmbar sind. Davon ausgehend planen sie dann Disaster-Recovery-Konzepte und deren technische sowie organisatorische Umsetzung. Dabei können erfahrene Partner helfen, denn Unternehmen neigen oft dazu, das Wachstum ihrer IT-Umgebung zu unterschätzen, sodass Kühlung und USV schnell nicht mehr ausreichend dimensioniert sind. Darüber hinaus kennen die Fachleute nicht nur Best Practices, sondern sind auch mit ungewöhnlichen Fehlerquellen vertraut, beispielsweise dem hohen Schalldruck der Sirenen von Brandmeldeanlagen, der zu Erschütterungen der IT-Systeme und damit Festplattenaussetzern führen kann.

Relevante Anbieter


  1. Die Tücken der Hochverfügbarkeit
  2. Die Krux mit der Georedundanz

Verwandte Artikel

Dell Technologies

Dell Technologies

Hochverfügbarkeit