Eine moderne IT-Infrastruktur soll das Silodenken obsolet machen, da die Ressourcenbereitstellung durch einen übergreifenden softwarebasierten Ansatz erfolgt. Hier können Open-Source-Lösungen bei der Umsetzung helfen. Gelingt es, die alten Silos zu überwinden, profitieren Unternehmen von einer flexiblen Infrastruktur, die zudem die problemlose Einbindung externer (Cloud-)Ressourcen ermöglicht.

Eine moderne IT-Infrastruktur soll die Produktivität von Mitarbeitern und letztendlich auch die Wettbewerbsfähigkeit des Unternehmens im Rahmen der Digitalisierung steigern. Mehr als die Hälfte (52 Prozent) der deutschen Firmen arbeiten derzeit daran, ihre IT-Infrastruktur zu modernisieren, um so eine höhere Produktivität (32 Prozent), eine Konsolidierung der IT (23 Prozent), eine Verbesserung der Sicherheit und Compliance sowie eine Senkung der Kosten (jeweils 15 Prozent) zu erreichen – so lautet zumindest das Ergebnis einer Studie, die die Marktforscher von IDC im Februar vorgestellt haben.

Im Zuge der Studie „Datacenter-Ressourcen in Deutschland 2019“ haben die Analysten im Februar 2019 in Deutschland IT- und Fachentscheider aus 210 Unternehmen mit mehr als 500 Mitarbeitern befragt, „um detaillierte Einblicke in aktuelle Umsetzungspläne, Herausforderungen und Erfolgsfaktoren bei der Modernisierung von Rechenzentren zu erhalten“, wie es in dem Papier heißt.

Alexander Best, Director Technical Business Development bei DataCore: „Die Silogrenzen müssen aufgebrochen werden, und das funktioniert nur mit einem Software-Defined-x-Ansatz.“ Bild: DataCore

Bei der Modernisierung geht es aber für Unternehmen nicht nur darum, bei Prozessen auf der Business-Ebene flexibler zu werden, wie Matthias Eckermann, Director Product Management Suse Linux Enterprise bei Suse, feststellt, sondern auch darum, „IT-Ressourcen so schnell und so flexibel wie möglich zur Verfügung zu stellen.“ Die ideale Variante sei hier der Self-Service, also die selbstständige Anforderung von IT-Kapazitäten durch den Mitarbeiter ohne direkte menschliche Mitwirkung. Dies erkläre auch den Erfolg von Public Clouds, die einem ähnlichen Prinzip folgen. Bricht man dies auf Unternehmen herunter, bildet ein Software-Defined Datacenter (SDDC) eine solche Funktionalität für Unternehmen ab.

Das bedeutet aber auch, dass ein Rechenzentrum mit einem klassischen Aufbau aus Server, Netzwerk und Storage laut Alexander Best, Director Technical Business Development bei DataCore, eine solche Flexibilität nicht gewährleisten kann. „Die Silogrenzen müssen aufgebrochen werden, und das funktioniert nur mit einem Software-Defined-x-Ansatz.“ Eine IT-Abteilung müsse daher bereit dazu sein, alte Architekturen und Prozesse aufzubrechen. Nur so sei es etwa beim Storage möglich, Migrationen von unterschiedlichen Architekturen wie von klassischen Software-Defined Storage (SDS) hin zu hyperkonvergenten Systemen und zurück im laufenden Betrieb umzusetzen.

Losgelöst von der Hardware

Durch die Virtualisierung der Compute-, Networking- und Storage-Ressourcen im Rechenzentrum lässt sich die bereits angesprochene Flexibilität bei der Bereitstellung der nötigen Hardwareleistung für individuelle Anwendungsfälle erreichen. Sie bilden somit erst die Grundlage für den Aufbau eines SDDCs. Weiterer Vorteil einer solchen SDI (Software-Defined Infrastructure) ist es, wie Horst Thieme, Head of Sales Specialists DACH – Cloud, Middleware & Storage bei Red Hat, erklärt, dass neben der Unabhängigkeit, die Unternehmen von der verwendeten Hardware erreichen, sich die vorhandenen Systeme effizienter nutzen lassen und letztendlich eine effizientere Auslastung erreicht wird. Um eine solche Virtualisierung der Infrastruktur zu erreichen, sind nach Meinung des Red-Hat-Mannes eine Analyse der Ist-Situation sowie eine Ermittlung der dafür in Frage kommenden Applikationen und eine genaue Überprüfung der Lizenzmodelle der Applikationsanbieter nötig. „In einem ersten Schritt müssen vor allem SLA-Regelungen für die virtualisierte Infrastruktur getroffen werden, denn wenn mehrere Applikationen und Services auf einer Plattform laufen, sind alle von dieser abhängig – Hochverfügbarkeit ist deshalb von elementarer Bedeutung“, erläutert Horst Thieme.

Matthias Eckermann, Director Product Management Suse Linux Enterprise bei Suse: „Wirklich offene Standards, die jeder mitgestalten kann und für die keine Lizenzen vergeben werden, sind die Grundlage für eine erfolgreiche Automatisierung.“ Bild: Suse

Damit das historische Silo am Ende des Projekts nicht auf einer moderneren Infrastruktur weiterbesteht, ist nicht nur eine Bestandsaufnahme der über die Jahre gewachsenen IT-Infrastruktur notwendig, sondern auch die Mitnahme der Mitarbeiter, um dieses Silodenken zu verhindern, wie Matthias Eckermann betont. Im Zuge des Projekts sei es wichtig, keine Mitar­beiter zu verprellen, aber gleichzeitig zu vermeiden, dass Silos noch länger weiterbestehen. DataCores Alexander Best weist an dieser Stelle auf ein anderes Problem hin: Applikationen, die aus historischen Gründen angeblich nicht abgeschaltet werden können. „In den meisten Fällen gibt es aber Alternativen auf dem Markt, nur ist die Migration auf die neue Applikation meist extrem aufwendig, und deshalb scheuen Unternehmen dieses Szenario.“ Auch aus diesem Grund sei ein Umdenken auf allen Ebenen notwendig.

Offene Software und Standards

Bei der technischen Umsetzung spielt das Thema Open Source, also offene Software und Standards, eine große Rolle. So arbeiten auch Amazon, Google und Microsoft mit Open-Source-Software, wie Matthias Eckermann erklärt: „Wirklich offene Standards, die jeder mitgestalten kann und für die keine Lizenzen vergeben werden, sind die Grundlage für eine erfolgreiche Automatisierung.“ Als positives Beispiel nennt er SaaS-Angebote (Software as a Service). Nur wenn diese auf Open Source basieren und von einer Community getragen werden, haben die Anwender eine Wahlfreiheit und sind nicht an eine herstellerspezifische SaaS-Umgebung gebunden, so der Suse-Mann.

Aber auch bei der herstellerübergreifenden Vernetzung von Systemen spielen offene Software, Skriptsprachen, Monitoring- und Automations-Tools sowie ein standardisierter Zugriff via API, etwa REST, eine große Rolle, berichtet Martin Brennecke, Lead Enterprise Architect bei HPE. So lasse sich beispielsweise auch hersteller­übergreifende Monitoring-Tools mit einem Infrastruktur-Management-Tool oder die Ansteuerung der Server- und Storage-Infrastrukturen direkt aus einer Cloud-Management-Plattform realisieren.

Horst Thieme, Head of Sales Specialists DACH – Cloud, Middleware & Storage bei Red Hat: „Durch den Vorteil der Virtualisierung, neue virtuelle Maschinen schnell bereitzustellen, besteht die Gefahr des VM-Sprawls – des unkontrollierten Wachstums von virtuellen Maschinen.“ Bild: Red Hat

 

Der Einsatz von Open-Source-Lösungen kann zudem auch dabei helfen, die nötige Balance zwischen der wachsenden Unabhängigkeit von der eigenen Infrastruktur und der zunehmenden Abhängigkeit von der verwendeten Virtualisierungsplattform zu wahren, damit beispielsweise Lizenzkosten nicht aus dem Ruder laufen, erklärt Horst Thieme.

Des Weiteren zeigt auch die eingangs erwähnte IDC-Studie, dass Open-Source-Software die Grundlage von vielen modernen Anwendungen und Tools darstellt. So gaben drei Viertel der Befragten an, eine oder mehrere Open-Source-Lösungen im Datacenter zu nutzen. Als Haupttreiber für die Verwendung von Open-Source-Technik nannten die Studienteilnehmer die Flexibilität bei der Bereitstellung von IT-Ressourcen, Kostenreduzierung sowie die Unterstützung der digitalen Transforma­tion.

Analyse und KI

Neben den technischen Aspekten sollen Modernisierungsaktivitäten laut der IDC-Studie ebenso auf einer klaren Strategie beruhen, die auch Teilschritte mitumfasst. Beim Performance-Management der Infrastruktur kommen außerdem mit Analytics und künstlicher Intelligenz immer häufiger zwei Technologien zum Einsatz, die Informationen über das Verhalten der IT-Infrastruktur liefern und die außerdem durch die Analyse der Prozesse und generierten Telemetriedaten einen Ausfall einzelner Komponenten vorhersagen können. 51 Prozent der Befragten gaben demnach an, bereits Analytics im IT-Betrieb zu verwenden. Des Weiteren setzen 41 Prozent der Befragten verstärkt auf die Optimierung unterschiedlicher Automatisierungsaufgaben.

Die Wichtigkeit eines Ressourcen- und Performance-Managements hebt auch Horst Thieme hervor. Nur so lasse sich vermeiden, dass die verschiedenen Applikationen, die auf einer Plattform laufen, auch aufeinander abgestimmt sind und sich nicht gegenseitig stören (Noisy-Neighbor-Effekt). „Durch den Vorteil der Virtualisierung, neue virtuelle Maschinen schnell bereitzustellen, besteht die Gefahr des VM-Sprawls – des unkontrollierten Wachstums von virtuellen Maschinen“, mahnt der Red-Hat-Mann. Dies könne man mit einem Performance-Management ebenso vermeiden.

Am Ende eines Projekts zur Modernisierung der IT-Infrastruktur sind im Idealfall sämtliche Eigenschaften, Konfigurationen und Verhaltensweisen eines Systems, unabhängig davon, ob es sich um Applikations-Server, Storage-Knoten oder eine Containerplattform handelt, als Profil definiert und lassen sich schnell, flexibel und automatisiert zusammenstellen und verändern, erläutert Martin Brennecke. Für ihn ist eine solche flexible Infrastruktur, die von einer softwaredefinierten Plattform verwaltet wird, die optimale Möglichkeit für Unternehmen, um dem Personalmangel oder schrumpfenden (IT-)Budgets entgegenzuwirken: „Sind beispielsweise alle Server mittels Software-Defined Management mit Profilen installiert, sind Firmware- und Treiber-Updates ein Leichtes – im besten Fall bedeutet dies für alle Systeme nur wenige Mausklicks sowie das Planen des Stagings und Reboots der Systeme über eine HTML5-GUI oder die REST-Schnittstelle.“ Zeitintensive und fehleranfällige Aufgaben, etwa Lifecycle-Operationen, verlieren seiner Meinung nach so ihren Schrecken. Auch spreche nur wenig dagegen, solche Standardaufgaben im Lifecycle-Management nicht komplett zu automatisieren.

Zusammenspiel mit der Cloud

Ein weiterer Vorteil einer solchen flexiblen softwaredefinierten Infrastruktur ist außerdem die Einbindung externer Ressourcen beziehungsweise eines hybriden IT-Betriebs, etwa eines eigenen Rechenzentrums und Public-Cloud-Services, wie die IDC-Studie zeigt. Demnach schafft die Erweiterung virtualisierter Infrastrukturen um Automatisierungs- und Orchestrierungskomponenten nach Ansicht der Marktforscher erst die technische Basis, um Private Clouds und Public Clouds umzusetzen und in hybriden und Multi-Cloud-Szenarien zusammenzufügen.

Hier können beispielsweise Container-techniken und deren Orchestrierung via Kubernetes oder die Hypervisor-Virtualisierung sinnvoll sein, wie Brennecke erklärt: „Durch die Flexibilisierung mittels Hypervisoren und Containerisierung lassen sich Workloads per Softwaremechanismen verschieben, vom SSDC oder der Private Cloud in eine Public Cloud und umgekehrt.“ Auch für DataCores Alexander Best ist ein Mix aus Virtualisierung und Containerisierung bei der Umsetzung eines SDDCs nötig. Seiner Meinung nach haben Container vor allem bei Standardisierung und Automatisierung ihre Vorteile. „Auf der anderen Seite können nicht alle Applikationen sinnvoll containerisiert werden, und deshalb spielt auch die Virtualisierung weiterhin eine große Rolle im SDDC-Umfeld“, so Best.

Martin Brennecke, Lead Enterprise Architect bei HPE: „Durch die Flexibilisierung mittels Hypervisoren und Containerisierung lassen sich Workloads per Softwaremechanismen verschieben, vom SSDC oder der Private Cloud in eine Public Cloud und umgekehrt.“ Bild: HPE

Ein Unternehmen, das eine Private Cloud aufbauen möchte, benötigt zwingend ein SDDC, wie Matthias Eckermann von Suse unterstreicht. Er betont hierbei den fließenden Übergang zwischen den beiden Begriffen. Ein SDDC, das über eine Self-Service-Funktion verfügt, ist laut Eckermann letztendlich eine Private Cloud. Komme es zu einer Hybrid Cloud, also zu einer Mischung aus Private und Public Cloud, dann sei aufgrund der hohen Datenschutzrichtlinien in Deutschland eine klare Definition von Policies nötig. „Es muss klar geregelt sein, welche Daten den privaten Bereich nie verlassen dürfen, weil sie sensibel sind. Weniger kritische Workloads können dann in Zeiten mit großer Leistungsanforderung unter Einhaltung der Policies automatisch ausgelagert werden“, sagt Eckermann.

Zusammenfassend lässt sich sagen, dass viele Unternehmen mit der Modernisierung ihrer IT-Infrastruktur begonnen haben und sich so auch verstärkt in Richtung Cloud bewegen. Dies zeigt der Blick in die IDC-Studie, die besagt, dass 90 Prozent der Teilnehmer über eine Cloud-Strategie verfügen. Dabei beschränken sie sich die meisten nicht nur auf eine Cloud-Plattform. 59 Prozent gehen davon aus, mittelfristig ihre Workloads auf zwei oder drei Plattformen zu betreiben. Eine softwaredefinierte Infrastruktur kann das Management und die Orchestrierung einer solchen Multi-Cloud-Umgebung deutlich vereinfachen.

Timo Scheibe ist Redakteur bei der LANline.