KI optimiert Storage-Infrastruktur

Vorausschauend speichern

14. September 2020, 7:00 Uhr | Markus Grau/wg
© Wolfgang Traub

Daten stehen im Mittelpunkt der digitalen Transformation. Sichtbarkeit und Verwaltung von Daten sind der Schlüssel für den Erfolg von Unternehmen, um Wettbewerbern den entscheidenden Schritt voraus zu sein. Die IT steht dabei vor der Herausforderung, mit einer heterogenen Mischung aus Server-, Netzwerk- und Speicherlösungen, steigenden Speicheranforderungen und schrumpfenden Budgets Schritt zu halten. Automatisierung ist folglich der einzige Ausweg – zum Beispiel bei der Flash-Storage-Verwaltung.

Ein modernes Infrastruktur-Management bietet Unternehmen eine bessere Transparenz und selbstgesteuerte Storage-Services, die in jeder Umgebung direkt zugänglich sind. Unternehmen benötigen somit weniger Zeit zur Verwaltung der Infrastruktur und können mehr Zeit für eigene Innovationen nutzen. Ein modernes Tool, das von einer Analytics-Engine unterstützt wird, hilft Unternehmen bei der Optimierung und Automatisierung der Infrastruktur. Die erforderliche Datengrundlage für das autonome Speicher-Management liefert die Auswertung von Millionen von Datenpunkten aller installierten Flash-Arrays eines Storage-Anbieters.

Ein KI-gestütztes Infrastruktur-Management-Tool ist so konzipiert, dass es sich selbst steuert und die effiziente Auslastung der Storage-Ressourcen für jede Workload sicherstellt. Gerade im Bereich Daten-Management fallen für die Planung viele Messdaten an: zu Kapazität, verfügbarer Leistung, zum Load-Balancing der Systeme für den optimalen Betrieb etc. Diese Daten enthalten nicht nur Informationen aus Logfiles der Hardware-Komponenten, sondern auch des Storage-Betriebssystems, etwa die Anzahl der IOs, Bandbreite, Kompressionsrate, Deduplizierung, Blockgröße etc. Um diese nicht nur zu extrapolieren („Das Wachstum lag in den letzten sechs Monaten bei 30 Prozent, also wird dies so weitergehen“), sondern auch anwender- und Workload-bezogen auszugeben, gilt es, das Verhalten der Speichersysteme und der Workloads zu erlernen und entsprechende Werte abzuleiten.

Beispielsweise muss die Management-Lösung lernen, wie sich eine bestimmte Work­load verhält und welche Auswirkungen sie auf das Speichersystem und die anderen dort befindlichen Workloads hat: Was passiert, wenn eine Workload um 50 Prozent wächst? Wie kann das System wissen, was ein „normales“ Verhalten einer Workload ist und wann eine Anomalie vorliegt? Dieser Normalzustand lässt sich nur mit einer großen Menge an Daten ermitteln, mit denen das KI-Modell trainiert wird. Nur so erzielt es bei einer konkreten Fragestellung eine sehr hohe Trefferwahrscheinlichkeit. Auf der Basis der Analyse historischer Daten scannt ein KI-gestütztes Management-Tool ständig nach bekannten Verhaltensmustern und Problemen. Automatisch generierte Support-Tickets benachrichtigen Administratoren, sodass diese die Probleme lösen können, bevor sie gravierendere Folgen verursachen.

Eine zentrale Cloud-Konsole sollte dabei alle Flash-Storage-Ressourcen in herkömmlichen oder hybriden Architekturen abdecken. Über die Konsole müssen untergeordnete Tools für vorausschauenden Support, KI-gesteuertes Management und Full-Stack-Analysen in Multi-Cloud-Umgebungen zugänglich sein. Das Management-Tool sollte Management- und Supportprozesse integrieren, um eine einfache und schnelle Kommunikation zwischen Administratoren, Partnern und dem Storage-Anbieter zu ermöglichen. Um die Kosten zu senken, sollte es Unternehmen auch bei der Integration von Anwendungen in Virtualisierungs- und Cloud-Umgebungen unterstützen. Dies ersetzt eine dedizierte Speicherverwaltung an jedem Standort, an dem sich Arrays befinden.

Sind Daten in der Public Cloud wie auch in On-Premises-Umgebungen gespeichert, kann es schwierig sein, sie zu verwalten. Mit der Kombination aus Cloud-Blockspeicher und lokalen Flash-Array-Lösungen können Unternehmen Hybrid-Cloud-Architekturen für ihre Daten nutzen. Diese hybride Architektur erfordert eine einheitliche Sichtbarkeit und Verwaltung der Daten, unabhängig davon, wo sie gespeichert sind. Ein modernes Infrastruktur-Management-Tool muss hier eine globale Ansicht aller Snapshots bieten – mittels eines Snapshot-Katalogs, unabhängig davon, ob das Ziel eine Flash-Array, eine Datei- und Objektspeicher-Plattform, ein Cloud-Blockspeicher-Dienst oder ein NFS- oder S3-Ziel (Simple Storage Service) ist.

Workload-Simulationen
Speicherumgebungen verändern sich stetig und unterliegen wechselnden Anforderungen. So gilt es etwa, eine Datenbank-Work­load auf das Doppelte zu skalieren oder die dreifache Anzahl von VDI-Benutzern zu unterstützen. Die Vorhersage von Last und Kapazität sowie Hardwareänderungen hilft Unternehmen hier, das Wachstum ihrer Storage-Umgebung zu planen und die Auswirkungen wechselnder Hardware- komponenten auf Last und Kapazität zu simulieren. Früher waren Storage-Anbieter nicht in der Lage, ihren Kunden dabei zu helfen, den besten Platz in der Speicherumgebung für eine Workload zu wählen. Dies ist entscheidend in Speicherumgebungen mit mehreren Arrays – zugunsten optimaler Auslastung und Kapazitätsnutzung. Workload-Simulationen einer individuellen Storage-Umgebung helfen hier, die Speicherverwaltung radikal zu vereinfachen.

Idealerweise zeigt dabei eine Kartendarstellung die angenommene Last und Kapazität für alle Arrays auf einen Blick, sodass Administratoren schnell herausfinden können, welche Arrays ihre Aufmerksamkeit erfordern. Das Zeitfenster für die Projektion sollte einstellbar sein, um zwischen täglichen taktischen Entscheidungen und langfristiger Strategie springen zu können. Nutzer sollten dabei alle Simulationen, die sie an jedem Array durchgeführt haben, in einer zusammengefassten Simulationsansicht betrachten können.

Im Overlay lassen sich idealerweise alle Volumes eines bestimmten Arrays sowie Performance-Metriken wie Bandbreite, Latenzzeit und IOPS abrufen. Die Analyse von Kapazitätsdaten liefert dann einen Anhaltspunkt für den geschätzten Speicherplatz, den jedes Volume nutzt. Der Anwender kann damit Kennzahlen innerhalb eines Zeitraums betrachten oder sich auf bestimmte Bereiche konzentrieren. Drei Prozesse müssen sich hier ausführen lassen:

1. Skalierung: Der Benutzer simuliert eine Workload-Skalierung für eine beliebige Anzahl von Volumes. So erfährt er, wie sich beispielsweise eine Halbierung oder Verdoppelung der Workloads auf die Leistung oder Kapazität auswirken würde.

2. Klonen: Der Nutzer simuliert das Klonen einer Reihe von Volumes. Dabei kann er auswählen, auf welchen Ziel-Arrays er die Workload klonen will. Sobald er das bestätigt, liefern Modelle die Änderung der Workload und der Kapazität für jedes der Ziel-Arrays.

3. Migration: Die Simulationsmodelle stellen die Änderung der Workload und der Kapazität auf jedem der Ziel-Arrays sowie die Veränderung auf der Quelle dar. Der Benutzer kann den optimalen Ort für die Verschiebung der Workload ermitteln.

Storage-Administratoren müssen ständig neu planen und dimensionieren. Ein Storage-Anbieter sollte aus den Simulationen der Administratoren lernen und seine Tools anpassen, um diese Simulationen zu verbessern. So ist er in der Lage, die optimale Platzierung für eine geklonte oder migrierte Workload zu empfehlen, um die Leistung und Kapazitätsauslastung zu maximieren. Künftig könnten Auto-Placement-Dienste hinter einer REST-API zur Integration mit Tools bereitstehen, um diese Erkenntnisse direkt aus dem Management-Tool in Aktionen umzusetzen. Daraus ergibt sich neues Potenzial und ein weiterer Mehrwert für Administratoren.

Markus Grau ist als Principal Systems Engineering CTO EMEA-Office bei Pure Storage tätig, www.purestorage.com.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Pure Storage Germany GmbH

Weitere Artikel zu Software-Defined Storage

Weitere Artikel zu NBB Controls & Components AG

Weitere Artikel zu ORGA-SOFT Organisation und Software GmbH

Matchmaker+