Das softwaredefinierte Rechenzentrum

Mit resilienten Systemen zur Hochverfügbarkeit

2. Juni 2022, 7:00 Uhr | Robert Meiners/am
Datacenter-Networking
© Wolfgang Traub

Die Anforderungen an die Verfügbarkeit und Geschwindigkeit geschäftskritischer Anw­endungen in den Unternehmen steigen. Die IT braucht Konzepte und Lösungen, die nicht nur einzelne Systeme einer Hochverfügbarkeitsstrategie unterwerfen, sondern integrierte Infrastrukturen leistungsstark vereinen. Das Software-Defined Datacenter und die daraus resultierende Resilienz bieten Möglichkeiten, um diese­ Anforderungen zu erfüllen.

Praktisch keine Organisation kann ohne die IT (über)leben. Wenn kritische IT-Komponenten ausfallen, steht der Betrieb still. Daher hat man zahlreiche Konzepte und Lösungen entwickelt, die einem solchen Ausfall vorbeugen und einen einfachen Ausfallschutz gewährleisten.

Allerdings konzentrieren sich viele dieser Lösungen auf einzelne Inseln, sprich auf Server, den Speicher oder das Netzwerk. Diese singulären Redundanzen sichern ­jedoch nicht das gesamte Ökosystem ab. Gerade bei dem heutigen komplexen Zusammenspiel lässt sich somit die Business Continuity (ununterbrochener Geschäftsbetrieb) nicht durchgehend sicher­stellen.

Mit softwaredefinierten IT-Strukturen kann man dieser Herausforderung begegnen. Sie sind nach heutigen Maßstäben die standhaftesten Infrastrukturkonzepte, die man in Rechenzentren – inklusive Cloud – realisieren kann. Durch den verteilten Ansatz softwaredefinierter Architekturen ist auch Resilienz ein integraler Bestandteil dieser Lösungen.

Vereinigung separater Lösungen

Um die Bedeutung einer Ausfallsicherheit und die damit zusammenhängenden ­Bemühungen zu skizzieren, lohnt ein ­kurzer Rückblick. Denn schon immer ging es um zwei wesentliche Aspekte: Ausfallsicherheit und Geschwindigkeit.
Anfangs lagen die Bestrebungen in der Entwicklung von RAID-Systemen, als Plattenausfälle noch wesentlich wahrscheinlicher waren. Gespiegelte oder verteilte Daten auf mehreren Platten in einem System versprachen einen Datenverlust zu vermeiden – solange nicht das gesamte RAID-System seinen Dienst versagte. Anschließend war redundanter Shared Storage im Einsatz, bei dem die Hochverfügbarkeit noch wichtiger wurde, weil mehrere Server gleichzeitig auf einen Speicher zugriffen. Unter anderem waren es Techniken wie Fibre Channel, welche die aufkommende Latenz eliminierten und derartige Lösungen realisierbar machten.
Im nächsten Evolutionsschritt kam die Virtualisierung. Shared Storage war verfügbar. Nun ging es um die Verfügbarkeit und die bestmögliche Auslastung der ­Server mit Hilfe der Server-Virtualisierung. Mehrere Server mit mehreren virtuellen Maschinen (VMs) konnten auf den zentralen Speicher zugreifen und boten dadurch mehr Flexibilität in der Skalierung und eine erhöhte Verfügbarkeit.

Erst ab diesem Zeitpunkt konnten sich softwaredefinierte oder gar konvergente IT-Strukturen entwickeln, denn der Shared Storage war die Grundvoraussetzung ­dafür. Mit dem Aufkommen von schnellen und virtualisierten Netzwerken konnte auch der zentrale Speicher software­definiert werden. Durch die durchgängige Virtualisierung (Server, Netzwerk, Speicher) waren die Grundlagen für hyperkonvergente Rechenzentren geschaffen. Denn legt man über die einzelnen virtualisierten Elemente eine weitere Softwareschicht, ­ergibt sich das ganzheitliche „Software-Defined Datacenter“, sprich eine softwaregesteuerte, konsolidierte und hyperkonvergente Infrastruktur, die echten Ausfallschutz und im Idealfall Resilienz ­gewährleistet.

 

Anbieterkompass Anbieter zum Thema

zum Anbieterkompass

  1. Mit resilienten Systemen zur Hochverfügbarkeit
  2. Die vier Stufen des Resilienzprinzips

Verwandte Artikel

MTI Technology GmbH

Software-Defined

Hochverfügbarkeit