Einführung von Flash-Speichern genau planen

Licht ins Dunkel bringen

10. November 2015, 6:00 Uhr | Chris James, Marketing Director EMEA bei Virtual Instruments, www.virtualinstruments.com./pf

Flash-Speicher sind im Vergleich zu Festplatten extrem schnell, doch häufig bleibt die Realität der heterogenen IT-Infrastrukturen von heute unberücksichtigt: Wer Preis und Ergebnis vergleicht, kommt zu dem Schluss, dass eine Investition von Tausenden Euro in Flash Arrays nicht zwingend sinnvoll ist, da dies allein keine optimale Performance garantieren kann. IT-Manager benötigen daher die richtigen Werkzeuge, die ihnen dabei helfen, fundierte, auf Fakten beruhende Entscheidungen zu treffen.

Bei SAN-Systemen muss die Installation von superschnellen neuen Flash Arrays nicht unbedingt spürbare Verbesserungen mit sich bringen, wenn Engstellen in anderen Bereichen den Datenverkehr bremsen. Wie lässt sich ohne ein tief greifendes Verständnis der einzelnen komplexen Vorgänge in einem Rechenzentrum ermitteln, ob die Investition in Flash-Speicher oder andere leistungssteigernde Anwendungen überhaupt eine geeignete Maßnahme ist?
Die Vorteile von Flash-Speichern sind extrem verlockend. Diese Technik kann im Prinzip eine deutlich höhere Leistung bieten als herkömmliche Festplattenspeicher. Es ließe sich daraus schlussfolgern, dass Flash-Speicher reißenden Absatz finden, und vielleicht wird dies in der nahen Zukunft auch der Fall sein. Doch im Moment ist noch nicht der magische Wendepunkt erreicht, an dem der Preisunterschied (Euro pro GByte) zwischen Flash-Speichern und Festplatten verschwunden ist, und es gibt nach wie vor einige Hürden, die die flächendeckende Nutzung verhindern.
Jenseits der Kostenaspekte lässt sich zudem feststellen, dass es aktuell eine riesige Vielfalt an Anordnungs- und Paketoptionen gibt, die durchaus erdrückend und verwirrend sein kann. Wird ein dediziertes Array eine spürbare höhere Leistungssteigerung als eine Server-basierende Speichererweiterung liefern? Ist ein hardwarebasierendes Design einer speziell entwickelten, mit Software optimierten Architektur vorzuziehen? Ist eine SAN-Caching-Appliance erforderlich oder reicht ein Hybridmodell aus (SSDs mit automatischem Tiering in herkömmlichen Festplatten-Arrays)?
Bei der Auswahl einer geeigneten Flash-Speicher-Lösung spielen unzählige Variablen eine Rolle - wie zum Beispiel Zugriffsmuster, das I/O-Verhältnis, I/O-Parameter und Lastprioritäten, die speziell bei mandantenfähigen Systemen sorgfältig abzuwägen sind. Zudem ist in Betracht ziehen, dass die verschiedenen Anbieterlösungen beim Einsatz unvermeidbar unterschiedliche Leistungen liefern.
Es gibt wohl keinen IT-Manager, der nicht genau wissen will, was er von einem Anbieter erwarten kann. Leider ist der Unterschied zwischen den Angaben in Produkt-Datenblättern (Millionen an IOPS und Latenzzeiten, die kürzer als eine Millisekunde sind) und dem, was sich bei tatsächlichen Anwendungstests ergibt, oft sehr groß. Dies ist für alle, die nach einer zuverlässigen IT-Lösung suchen, recht ärgerlich. Allerdings ist dieser Umstand auch keine Überraschung angesichts der vielen Variablen, die eine Rolle spielen.
 
Die Variablen erkennen
Natürlich erweist sich der Gedanke einer Anwendungsbeschleunigung als sehr attraktiv. Tatsächlich ist dieses Ziel für viele Unternehmen sogar so verlockend, dass sie Solid-State-Speicher häufig sogar dann einsetzen, wenn die Entscheidungsträger nicht alle Faktoren verstehen. Nur selten kommt es zu einer ausreichenden Analyse und Bewertung, wie die umgebende Infrastruktur auf die Einführung von Flash-Speichern reagieren wird.
Bei der Bewertung der Geschwindigkeit eines SANs sind alle Elemente und Geräte auf dem Datenweg in die Rechnung einzubeziehen, weil sie gemeinsam die Gesamtleistung des Systems bestimmen. Da das schwächste Glied in der Transaktionskette die Datenübertragungsrate drosselt, ist es sinnvoll, den Storage-Verkehr im gesamten Stack zu analysieren.
Diese Erkenntnis mag vielleicht offensichtlich sein - aber ohne umfassende Einblicke kann ein Unternehmen Hunderttausende Euro in glänzende neue Hardware investieren, wobei die Entscheidung größtenteils auf der Interpretation der I/O-Intensität beruht. Letztere ist allerdings nur ein abgeleiteter und ungenauer Wert. Das tiefer liegende Problem ist, dass sich beinahe alle Standardvergleiche von Flash-Speichern auf die Analyse von Trace-Dateien konzentrieren (Ergebnis der Leistungsnachverfolgung), die sich wiederum ausschließlich auf die I/O-Prozesse von Datenbanken beschränkt, statt den gesamten Workflow im System zu betrachten.
Die Anbieter von Flash-Speichern nutzen diese Methode zur Prüfung der CPU-Auslastung, des Datendurchsatzes, der Warteschlangentiefe und der I/O-Latenzzeiten, um mögliche Bereiche zu identifizieren, die verbessert werden können. So lässt sich zwar herausfinden, ob beispielsweise auf dem Datenweg ein Latenzproblem besteht, aber es ist nicht möglich zu bestimmen, wo und warum es auftritt, oder auch geeignete Maßnahmen vorzuschlagen.
Ohne tatsächlich umfassende und korrelierte Informationen kann ein Unternehmen nicht feststellen, ob ein System potenzielle Schwachstellen aufweist. Oft manifestieren sich diese Fehler erst dann, wenn es zu spät ist und eine Investition bereits stattgefunden hat. Erst dann kommen unglückliche Ressourcenkonflikte und "Falscheinstellungen" an anderen Stellen der Infrastruktur zum Vorschein: fehlerhaft konfigurierte Parallelisierungseinstellungen, nicht für Flash-Speicher optimierte Betriebssystemversionen, zu kleine I/O-Schnittstellen, Netzwerküberlastung und andere Komponenten, die nun über-fordert sind.
Angesichts der kontinuierlichen Änderungen und der wachsenden Komplexität, wie sie durch neue Abstraktionsebenen und die dynamischen Anforderungen von virtualisierten Umgebungen entstehen, benötigen moderne IT-Manager die richtigen Werkzeuge, die ihnen dabei helfen, fundierte, auf Fakten beruhende Entscheidungen zu treffen. Für Unternehmen sind eine genaue Planung und sorgfältige Überlegungen erforderlich, um latenzempfindlichere Anwendungen zu virtualisieren. Vor der Einführung von Flash-Speichern ist ein System von Grund auf zu prüfen, um die wahrscheinlichen Auswirkungen zu bestimmen, ROI- und TCO-Berechnungen vorzunehmen sowie Anleitungen für die Optimierung und das Forward-Engineering des SANs zu erarbeiten.

Mit einem Tool wie Virtualwisdom haben Administratoren den aktuellen Bandbreitenverbrauch im Blick und können kritische Stellen und mögliche Probleme einfach erkennen. Bild: Virtual Instruments

Mit Infrastructure-Performance-Management-Lösungen lassen sich Reaktionszeiten analysieren und suboptimale Performance-Messwerte schnell erkennen. Bild: Virtual Instruments

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Sonic Solutions

Weitere Artikel zu IEEE Standards Association (IEEE SA)

Matchmaker+