Verringerung der Ausfallzeit auch im Mittelstand

Erschwingliche Hochverfügbarkeit

12. Oktober 2015, 6:00 Uhr | Rüdiger Grund ist Senior Field Sales Engineer und Produkt-Manager Server und Storage bei Extra Computer, www.extra-computer.de./jos

Ausfallsichere IT ist längst ein Anspruch auch kleiner und mittelständischer Unternehmen - ohne Server geht in Arztpraxen, bei Steuerberatern und in den meisten vertriebsgetriebenen Firmen nichts mehr. Dabei ist ausfallsichere IT kein Privileg von großen Unternehmen - und mittlerweile durchaus auch für Mittelständler preislich im Bereich des Möglichen.

Die Deutschen sichern sich gern ab: In keinem anderen europäischen Land fließen so viele Beiträge an Versicherungen wie hier. Was dabei allerdings verwundert: Wenn es um die Geschäftsfähigkeit geht, ist die Absicherungsquote bei Weitem nicht so hoch. Das Thema Hochverfügbarkeit der IT führt nach wie vor ein Nischendasein. Warum eigentlich?
Fragt man in Unternehmen nach, mangelt es nicht an Begründungen für eine fehlende Hochverfügbarkeitslösung: Zu teuer, zu aufwändig, zu umständlich - oder auch schlicht: Warum brauchen wir das? Die Antwort auf die letztgenannte Frage ist dabei am einfachsten zu beantworten. Jedes Unternehmen sollte sich zunächst zwei Fragen stellen:
1. Wie lange darf ein System oder auch nur ein einzelner Geschäftsprozess ausfallen?
2. Wie viel Datenverlust ist akzeptabel, wenn ein System aus einem Backup wiederherzustellen ist?
Für die erträgliche Ausfallzeit, die Recovery Time Objective (RTO), ermittelte der Cloud-Backup-Anbieter Asigra bei einer Umfrage, dass knapp 30 Prozent der befragten Unternehmen keine Vorstellung davon hatten, wie lange dieser Zeitraum sein darf. Für etwa ein Drittel war eine Ausfallzeit von maximal vier Stunden akzeptabel.
Berücksichtigt man die Tatsache, dass die wenigsten kleinen und mittelständischen Unternehmen eigene IT-Verantwortliche beschäftigen, ist diese Zeitspanne mehr als unrealistisch. Das heißt: Ein Ausfall des zentralen Servers oder eines Produktivsystems kostet bereits nach kürzester Zeit bares Geld.
Ebenso wichtig ist auch die Frage, wie viele Daten verloren gehen dürfen, wenn ein Backup zurückgespielt werden muss. Die Recovery Point Objective (RPO) lag in der Asigra-Umfrage in knapp zehn Prozent der Fälle bei Null, 20 Prozent erlaubten Daten, die maximal wenige Stunden alt sind. Im Klartext: Selbst wenn ein System bereits nach kurzer Zeit wiederhergestellt wäre - die verlorenen Daten lassen sich nur schwer ersetzen.
Außerdem, so scheint es, sind die tatsächlichen Kosten für einen Ausfall nur einer Minderheit bekannt. Das Beratungsunternehmen ITIC fand heraus, dass 65 Prozent der Unternehmen nie ermittelt haben, was der Stillstand der IT für das Betriebsergebnis bedeutet. Dies allerdings ist die elementare Frage. Denn die Kosten von Hochverfügbarkeits-Lösungen müssen im Verhältnis zum möglichen Schaden stehen - und der kann auch bei Mittelständlern beträchtlich sein. Zu einem möglichen Umsatzverlust und den laufenden Kosten für Mitarbeiter, die zur Untätigkeit verdammt sind, kommen nämlich noch Imageschaden und verprellte Kunden hinzu.
 
Versicherung für den Worst Case
Unterm Strich ist eine Hochverfügbarkeitslösung also nichts anderes als eine Versicherung gegen den schlimmsten anzunehmenden Ernstfall, den Worst Case: den Stillstand sämtlicher Prozesse im Unternehmen. Und genau wie bei Unfall-, Hausrat- oder KfZ-Versicherungen wünscht sich niemand, dass es jemals zur Auszahlung kommt - und doch lässt uns die Gewissheit, dass im Schadensfall alles abgesichert ist, ruhig schlafen. Die Frage nach dem Preis spielt dabei dennoch eine Rolle, schließlich vergleichen Kunden auch die Preise von Axa, Allianz und Co.
Fakt ist: Hochverfügbarkeit ist heute auch für kleinere Unternehmen durchaus erschwinglich. Vor allem dann, wenn ohnehin die Anschaffung neuer Infrastruktur geplant ist oder die Performance gesteigert werden soll. Denn Hochverfügbarkeit bedeutet neben ausfallsicherer IT als schönen Nebeneffekt in der Regel auch eine höhere Geschwindigkeit bei der notwendigen Datenaufbereitung.
Grund dafür ist die prinzipielle Funktionsweise von Hochverfügbarkeitslösungen, etwa von Datacore. Die Grundlage solcher Lösungen bildet demnach eine Kombination aus beliebig vielen virtuellen (mindestens zwei) physischen Servern und der Datacore-Appliance. Hinzu kommt ein virtueller Storage, der beiden Einheiten gleichermaßen zur Verfügung steht. Die Appliance sorgt nun dafür, dass sämtliche Informationen auf den Server-Clustern synchron gespiegelt vorliegen, auch räumlich getrennt. Fällt ein Server aus, sei es durch Plattencrash, Stromausfall oder Feuer, hält die zweite Einheit sämtliche virtuellen Server aufrecht und das System in Gang. Die Anwender der laufenden Applikationen auf den virtuellen Servern merken im Idealfall davon nichts.
Im normalen Betrieb, also im Alltag, profitieren sie sogar von der synchronen Datenhaltung. Durch aktives Caching der beiden Server-Appliances ist die Datenverarbeitung nachweislich schneller als ohne Hochverfügbarkeitscluster. Für leistungshungrige Datenbank- und Unternehmenslösungen ist dies ein enormer Vorteil.
Diese grundsätzliche Struktur einer Hochverfügbarkeitslösung verlangt durchaus Ressourcen an Hardware und auch ein passendes Lizenzmodell, das für Mittelständler nur bedingt geeignet ist - neben den Hardwarekosten ist das regelmäßige Entgelt für den Software-Service durchaus signifikant. Diesem Umstand trägt der Anbieter seit Kurzem mit einem vereinfachten Lizenzmodell Rechnung, das für spezielle Virtualisierungslösungen auf Basis von Microsoft Hyper-V gilt. Bei Lösungen wie etwa "Eternity" von Exone verschmelzen die Hosts für die virtuellen Server-Cluster und der Datacore-Appliance in jeweils nur einem physischen Server. Weil die Datacore-Software im Sinne des Lizenzmodells von Microsofts Windows Server 2012 keine lizenzpflichtige Anwendung, sondern lediglich ein Verwaltungs-Tool ("Dienst") darstellt, ist ein Parallelbetrieb problemlos möglich.
Entsprechend leistungsfähige Hardware vorausgesetzt entfällt so pro Einheit der zusätzliche Server für den Hypervisor, also wie beim regulären Aufbau. Ein weiterer positiver Aspekt: Die Appliance ist gleichzeitig eine Art Hypervisor für Storage. Als Speicher für die Server lässt sich im Prinzip jede Hardware nutzen - vom Highend-Storage mit Glasfaseranschluss bis zur USB-Platte - auch wenn deren Performance zweifelhaft sein dürfte.
Im Aufbau von Exone ist zudem gar kein zusätzlicher Storage notwendig: Die Eternity-Lösung unterstützt von Haus aus 26 Platteneinschübe, die sowohl für die Server-Instanzen, als auch für den Storage zur Verfügung stehen. Dank der speziellen Datacore-Lizenzierung dieser integrierten Lösung steht Anwendern von Anfang an deutlich mehr Storage zur Verfügung als im normalen Lizenzmodell. In vergleichbarer Konstellation erhalten Anwender dort statt zwei gleich 8 TByte Storage bei gleichzeitig etwa 60 Prozent der Lizenzkosten.

Durch den Einsatz von Hochverfügbarkeitslösungen, etwa von Datacore, bleiben Anwender auch bei Ausfall eines Server-Clusters produktiv.

Je kürzer ein Ausfall der IT sein darf und je weniger Datenverlust akzeptabel ist, desto schneller rechnen sich die Investitionskosten für eine Hochverfügbarkeitslösung.

Wie viel Zeit darf nach einem Server-Ausfall vergehen, bis sämtliche Prozesse wieder normal laufen? Wie viele verlorene Daten sind akzeptabel? Diese beiden Fragen bestimmen für Unternehmen den Bedarf nach einer Hochverfügbarkeitslösung - denn nicht nur jede Minute Server-Stillstand kostet in der Regel Geld, sondern auch jeder verlorene Datensatz.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu HGST

Weitere Artikel zu Cognizant

Weitere Artikel zu Arthur D. Little GmbH

Matchmaker+