Server-Side-Flash-Lösungen

Flash-Technik für den Profi-Einsatz

15. Juli 2014, 6:00 Uhr | Christian Groll, Director Enterprise Sales EMEA bei den zu Toshiba gehörenden OCZ Storage Solutions, www.ocz.com (jos)

Den mit Abstand größten Markt für PCIe-basierende Flash-Technik stellten in den letzten Jahren große Web-2.0-Unter-nehmen und Hyperscale-Rechenzentren wie Facebook, Google oder Amazon dar. Diesen Unternehmen geht es in erster Linie um Latenz außerhalb klassischer Hochverfügbarkeitsszenarien, etwa im Bereich Caching von Web-Content.Mit Ausnahme dieser Special-Purpose-Designs fand Server-Side-Flash bei Unternehmen bislang nur sporadisch Anwendung, etwa als Read-Cache-Device. Als entscheidende Hemmnisse wurden insbesondere die schwierige Integration in Hochverfügbarkeitsszenarien genannt, zudem der Nachteil des "Local- vs. Shared-Storage". Eine neue Generation von Software- und Virtualisierungslösungen, angeboten von einigen Flash-Herstellern oder als funktionale Erweiterung der Server-Virtualisierung, adressiert nun genau diese Situation und verändert grundlegend das künftige Zusammenspiel von Server-Side-Flash und konventionellem, HDD-basiertem Storage. In den vergangenen zehn Jahren hat sich die Leistungsfähigkeit der meisten Komponenten im Rechenzentrum drastisch verbessert. Die Prozessorleistung hat sich um den Faktor 10 bis 100 erhöht (je nachdem, welche Parameter man berücksichtigt), die Busgeschwindigkeit hat sich in zehn Jahren um den Faktor 20 gesteigert, der Netzwerkdurchsatz ist verhundertfacht. Zudem verdoppelt sich die Menge der Daten alle zwei Jahre. Die Anforderung ist, immer größere Datenmengen in kurzer Zeit zu verarbeiten. Die Performancesteigerung der Festplatte sieht mit 20 Prozent innerhalb der letzten zehn Jahre allerdings äußerst bescheiden aus und entwickelt sich immer mehr zum Flaschenhals. Mit Antwortzeiten im Millisekundenbereich ist die Festplatte um den Faktor 100.000 langsamer als DRAM, dessen Antwortzeit im zweistelligen Nanosekundenbereich liegt. Die immer größere Leistungslücke zwischen Festplatten und Server ist nur durch halbleiterbasierende Speichertechnik zu überbrücken. Die Antwortzeit von NAND-Flash liegt im zweistelligen Mikrosekundenbereich, also genau zwischen DRAM und Festplatte, daher ist Flash derzeit die einzige in diesem Kontext relevante Technik. Diese Entwicklung hat die Nachfrage nach Flash angekurbelt. Durch die höhere Produktionsmenge sind die Preise gesunken. Dadurch ist die Nachfrage weiter angestiegen. Inzwischen findet sich NAND-Flash in unterschiedlichen Technikansätzen im Rechenzentrum und ergänzt konventionelle HDD-basierende Lösungen in kritischen Bereichen.   Flash-basierende Ansätze Die drei meistverbreiteten Ansätze für Flash-Storage sind SSDs, All-Flash-Arrays und PCIe-Flash-Karten. Es gibt noch weitere Ansätze, etwa Flash auf dem DIMM-Socket oder auf dem HBA. Diese spielen auf dem Markt aber derzeit nur eine kleine Rolle. SSDs (SATA) sind ein vergleichsweise preisgünstiger Ansatz, sind leicht zu integrieren und werfen auch hinsichtlich des Themas Support üblicherweise keine Fragen auf, nutzen aber das Potenzial der Flash-Technik nicht effektiv. All-Flash-Arrays haben zweifellos ihre Daseinsberechtigung, stellen jedoch noch immer eine erhebliche Investition dar und sind vor diesem Hintergrund nicht für jede leistungskritische Kundenumgebung eine ernst zu nehmende Option. PCIe-Karten zeichnen sich im Vergleich zu SSDs durch eine extrem geringe Latenz und eine hohe Leistung im Hinblick auf Datendurchsatz und IOPS aus. PCIe-Karten sind SSDs beim I/O-Preis deutlich überlegen. Daher lohnt sich ein genauerer Blick auf die PCIe-basierende Flash-Karte.   PCIe-Karten in der Praxis Die PCIe-Karte sitzt unmittelbar an der CPU und umgeht den gesamten Storage-Protokoll-Stack, wodurch sich extrem geringe Antwortzeiten ergeben. Die Tatsache, dass es sich bei PCIe-Karten um "Local Storage" handelte, der sich auch nicht ohne weiteres in gängige Hochverfügbarkeitskonzepte integrieren ließ, hat den Einsatz der PCIe-Flash-Karten in der Vergangenheit limitiert. Angestoßen durch neue Software befindet sich der Markt jedoch derzeit im Umbruch. Es gibt prinzipiell zwei Arten, PCIe-Flash einzusetzen: Die Verlagerung von Teilen der Applikation oder die Verlagerung ganzer Applikationen auf die Flash-Karte. Im ersten Ansatz sind Teile der Applikation oder der Daten auf die Flash-Karte ausgelagert. Dabei geht es darum, diejenigen Teile der Applikation oder der Daten auf den Flash-Layer zu verlagern, die einen besonders großen Einfluss auf die Gesamtleistung haben. Bei der Verlagerung von Teilen der Applikation auf Server-Side-Flash unterscheiden Experten zwischen einem statischen und einem dynamischen Ansatz. Beim statischen Ansatz sind Teile der Applikation oder der Daten auf der Flash-Karte gespeichert und nicht im zumeist HDD-basienden Backend. Im Fall einer SQL-Datenbank könnte dies die tempDB sein, bei Oracle Datenbanken etwa die Redo Logs. Es gibt hier keinen standardisierten Ansatz, die Entscheidung muss abhängig von der verwendeten Datenbank/Applikation und der individuellen Implementierung erfolgen. Beim dynamischen Ansatz ist eine Intelligenz nötig, die dynamisch entscheidet, welche Daten zu welchem Zeitpunkt sinnvollerweise auf dem Flash-Tier liegen sollten, also eine Caching- oder Autotiering-Engine. Entsprechende Features finden sich als Bestandteil von Betriebssystemen (etwa Redhat Cache FS), als Feature der Speichervirtualisierung (etwa Datacore Autotiering), der Server-Virtualisierung (etwa VMware VSAN), als Funktionalität von Datenbanken (zum Beispiel Oracle Smart Flash Cache) oder als Software des Flash-Herstellers selbst (OCZ ZD-XL, OCZ WXL). Dem statischen und dem dynamischen Ansatz gemein ist, dass sich dabei mit geringem Aufwand und dem Einsatz geringer Flash-Kapazitäten und entsprechend geringen Kosten die Applikationsleistung bereits deutlich steigern lässt. Einigen Aspekten sollten Anwender jedoch ein besonderes Augenmerk widmen. So ist etwa der Einfluss von Caching auf die Performance stark abhängig vom Applikations- oder I/O-Profil. Zudem kann es erforderlich sein, das Thema Hochverfügbarkeit in die Planungen einzubeziehen. Sollte die Karte als Read/Write-Cache arbeiten oder Daten darauf abgelegt sein, ist sie gegen Ausfall und Datenverlust zu sichern. Der zweite Ansatz besteht in der Verlagerung der gesamten Applikation in Richtung Flash. Diese Verlagerung ganzer Applikationen auf Server-Side-Flash hat einen konkreten Vorteil: Bei Verwendung hochwertiger Flash-Medien ergeben sich teilweise spektakuläre Performanceergebnisse. Die potenziellen Nachteile liegen allerdings ebenfalls auf der Hand: Zunächst sind die anfallenden Kosten zu nennen. Bei einigen hundert GByte ist dieser Punkt für die meisten Anwender vermutlich weniger relevant. Wenn jedoch viele TByte nötig sind, kann sich der Unterschied im Preis/GByte bei der Anschaffung bereits erheblich auswirken. Ein weiterer potenzieller Spielverderber ist das Thema Hochverfügbarkeit. Wer eine wichtige Business-Applikation auf Flash verlagert, erwartet ein zuverlässiges Konzept zur Notfallvermeidung. An diesem Punkt sind entsprechende Einsatzszenarien in der Vergangenheit häufig gescheitert, denn es fehlte schlichtweg an der nötigen Technik, um Server-Side-Flash mit überschaubarem Aufwand und zu vertretbaren Kosten in effektive Hochverfügbarkeitskonzepte zu integrieren. In diesem Punkt hat sich in den letzten zwölf Monaten allerdings einiges bewegt: VMware stellt mit VSAN eine Technik bereit, mit sich der lokaler Speicher über mehrere Server replizieren und absichern lässt. Auch Hersteller von Flash-Lösungen verfügen inzwischen selbst über ähnliche Ansätze. OCZ VXL ermöglicht in VMware-Umgebungen die synchrone Spiegelung zwischen Flash-Karten in zwei Servern inklusive transparentem Failover im Falle eines Ausfalls und macht die Flash-Volumes auch anderen Servern im Netzwerk verfügbar. Durch die Software (Stichwort: "Software-Defined") wird so aus lokalen Volumes hochverfügbarer "Shared Storage". Damit ist nun die Verlagerung ganzer Applikationen aus dem SAN auf den Server ohne Einbußen im Bezug auf Datensicherheit und Applikationsverfügbarkeit möglich.   Fazit Server-Side-Flash ist auf dem besten Weg, sich von der hochpreisigen Speziallösung für Web-2.0- und Hyperscale-Rechenzentren zu einem vollwertigen Storage-Tier für Organisationen sämtlicher Größen zu entwickeln. Softwaredefiniert lassen sich nun Flash-Volumes zwischen Servern synchron spiegeln. Bei Ausfall einer Komponente erfolgt ein transparentes Failover. Zudem können weitere Server im Netz auf das Flash-Volume zugreifen. Hinzu kommen einige Aspekte in der TCO-Betrachtung, die eindeutig für Server-Side-Flash sprechen. In Datenbank-Umgebungen kann der intelligente Einsatz von Server-Side-Flash zu einer erheblich verbesserten Auslastung der Server führen, da I/O-Wartezeiten drastisch reduziert sind. Der anhaltende Sinkflug der Flash-Preise trägt ebenfalls dazu bei, dass breite Anwenderschichten Flash zunehmend als Storage-Tier in ihre Konzepte einbeziehen. Es ist zu erwarten, dass sich diese Entwicklung fortsetzt und in den kommenden Jahren der Flash-Anteil im RZ rapide anwachsen wird. Die Festplatte ist zwar noch lange nicht tot, sie wird jedoch ihren Weg in Richtung günstiger Massenspeicher unaufhaltsam weitergehen und dabei die Verantwortung für Daten und Applikationen mit Performance-Anspruch mehr und mehr an die Flash-Technik verlieren.

Bei der Verlagerung ganzer Applikationen auf den Flash-Layer steht der Performance-Vorteil einem hohen Anschaffungspreis und bisher fehlenden Hochverfügbarkeitskonzepten gegenüber. Bild: OCZ

Teile der Applikation, die einen großen Einfluss auf die Gesamt-Performance haben, lassen sich auf den Flash-Layer verlagern. Dabei ist ein statischer und ein dynamischer Ansatz möglich. Bild: OCZ
LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Samsung Techwin

Weitere Artikel zu Cognizant

Matchmaker+