Fujitsu Storage Days 2020, München

"So viele Platten können wir nicht bauen"

10. Februar 2020, 12:02 Uhr   |  Von Timo Scheibe.

Immer mehr Daten, deren richtige Speicherung, Bereitstellung, Auswertung und Archivierung: Auf den Fujitsu Storage Days 2020 in München hat der Technologiekonzern versucht, mit seinem Portfolio die richtigen Antworten auf aktuelle Herausforderungen zu geben. Neben Weiterentwicklungen von bestehenden Speichersystemen soll dies mit der neuen SDS-Lösung Eternus DSP für Block-Storage und einem neuen File-System gelingen.

Zum zehnten Mal geht Fujitsu dieses Jahr mit seinen Storage Days auf Roadshow. In München wählte der Hersteller zum zehnjährigen Jubiläum den Paulaner am Nockherberg als Veranstaltungsort - und dies rund einen Monat bevor dort das bekannte "Derblecken" zum Auftakt des Starkbierfests stattfindet. Rund 400 Anmeldungen verzeichnete der Hersteller in diesem Jahr - nach eigenen Angaben die bisher größte Teilnehmeranzahl.

Verspotten oder spöttisch [und derb] kritisieren - wie der Duden derblecken übersetzt - wollte Fujitsu am Münchner Roadshow-Halt jedoch niemanden, wie Louis Dreher, Head of Products Sales Central Europe bei Fujitsu, in seiner Begrüßung betonte: "Nicht erwähnt zu werden, ist beim Derblecken ja das Schlimmste für einen Politiker."

Stattdessen stand das eigene Storage-Portfolio im Fokus; und das hat zahlreiche Herausforderungen zu stemmen, wie die einzelnen Referenten in ihren Vorträgen verdeutlichten. Dies liegt vor allem am steigenden Datenwachstum das, so zeigt eine Marktstudie von IDC aus dem Januar 2019, zwischen 2018 und 2025 von 33 auf 175 ZByte zulegen soll. Für die EMEA-Region prognostizieren die Marktauguren einen Anstieg von 9,5 auf 43,8 ZByte.

Stefan Roth, Head of Storage Business Central Europe bei Fujitu, hob in der Eröffnungs-Keynote hervor, was die Ursachen dafür sind: Eine immer stärkere Datenerzeugung am Edge durch Trends wie Social Media, IoT, (Internet of Things), Connected Cars etc. Diese verteilten und häufig unstrukturierten Daten müssen Unternehmen wiederrum kontrollieren und abrufbar vorhalten. Auch bezüglich der gesetzlichen Vorgaben, sei es zudem sinnvoll, bestimmte Daten On-Premises vorzuhalten und nicht in die Cloud zu schieben. "Hybride Infrastrukturen werden für Unternehmen daher immer wichtiger", unterstrich Roth. Ferner sei es für Firmen eine große Herausforderung, überhaupt festzustellen, welche Daten für sie relevant sind.

Um aus den Daten anschließend Werte zu generieren, rät Roth den Unternehmen, eine Daten-Strategie zu entwickeln, die einen allumfänglichen Überblick und Einblick in alle Daten "von der App bis zur letzten Platte" ermöglicht und die nötigen Analysewerkzeuge an die Hand gibt. Mit seinem Portfolio ist es für Fujitsu auch im Zusammenspiel mit seinen Roadshow-Partnern Commvault, Veeam und Veritas möglich, eine Speicherinfrastruktur aufzusetzen, die sowohl am Edge, am Core als auch in der Cloud die nötige Flexibilität bieten soll, um die Herausforderungen zu bieten.

All-Flash-Einstiegsmodell AF150 S3

So hat der Hersteller nach eigenen Angaben beispielsweise im Hybrid-Storage-Segment sowie bei den All-Flash-Systemen seine Lösungen weiterentwickelt. Mit der AF150 S3 hat Fujitsu noch Ende 2019 ein Einstiegsmodell für seine All-Flash-Familie vorgestellt, das für extrem kurze Reaktionszeiten und für Datenmengen von bis zu 92 TByte ausgelegt ist. Für größere Unternehmen sei hingegen das hybride Speichersystem DX900 S5 ausgelegt, das hohe Leistungen bieten und für vier Controller skalierbar sein soll. Ferner speichert es laut Fujitsu bis zu 70 PByte an Daten und erreicht problemlos IOPS in Millionenhöhe. Die anderen Eternus-Modelle der AF-S3- und der DX-S5-Linie haben zudem ein Facelifting erhalten, das mehr Rechenleistung, größere Systemspeicher, NVMe-Cache in den Midrange-Hybridspeichersystemen sowie eine hardwarebeschleunigte Komprimierungs- und Deduplizierungstechnik umfasst.

Letzteres wird auch angesichts der steigenden Datenmengen immer wichtiger. "175 ZByte an Daten - so viele Festplatten kann die Menschheit nicht bauen", stellte Christoph Hammerer, Technical Partner Manager bei Fujitsu, in seinem Vortrag fest. Datenreduktion via Deduplizierung und Komprimierung wirke sich jedoch auf die Performance des Speichersystems aus. Hierzu soll beispielsweise die Storage Acceleration Engine als "kleines Helferlein" für die nötige Datenintegrität bei der hardwarebasierten Komprimierung der Eternus-Systeme sorgen. Die Engine soll so dabei helfen, den Controller zu entlasten. Prinzipiell sei Thin Provisioning bei den Eternus-Systemen standardmäßig aktiviert. Ferner bieten sie laut Hammerer auf Applikationsebene die Möglichkeit, Deduplizierung oder Komprimierung je nach Bedarf an- oder auszuschalten, etwa für Anwendungen mit SLAs für die Leistung. Da SAP zudem emsig daran arbeitet, alle SAP-Umgebungen auf SAP HANA zu migrieren, sind sowohl die AF-S3- als auch die DX-S5-Modelle SAP-HANA-zertifiziert, "um Unternehmen auch eine sichere Investition in die Zukunft zu ermöglichen", wie Hammerer berichtete.

"Verdatung der Welt"

Fujitsu hat jedoch auch eine Schwachstelle in seinem Storage-Portfolio ausgemacht, die es mit der SDS-Lösung (Software-Defined Storage) Eternus DSP sowie dem Hybrid-IT File System in Zusammenarbeit mit Qumulo zu schließen versucht. Dies ist notwendig, da das ungebremste Datenwachstum, digitale Anwendungen und die Cloud als Plattform zu einer "Verdatung der Welt" führen und eine auf das Rechenzentrum fokussierte Infrastruktur an seine Grenzen bringt, wie René Hübel, Head of Fujitsu Product Management Storage EMEA bei Fujitsu, vortrug. Dort existieren seiner Meinung nach zu viele Silos, die zu starr, inflexibel und zu teuer sind, um auf die neuen Anforderungen reagieren zu können. Schließlich seien All-in-One-Box-Lösungen in der Regel für einen gewissen Einsatzbereich und für einen bestimmten Zeitraum vorgesehen.

cof
©

"Mit SDS ist die Playlist immer dabei", erklärte René Hübel, Head of Fujitsu Product Management Storage EMEA bei Fujitsu, die Vorteile von Software-Defined Storage. Bild: Timo Scheibe

Stattdessen sieht Hübel in einer softwarebasierten Architektur die Lösung, um das Datenwachstum mit all seinen Auswirkungen bändigen zu können. Die Abstraktion der Softwareschicht von der Hardware ermöglicht laut dem Fujitsu-Mann eine "Infrastruktur als Abo", wie man es bereits aus der Musik kenne. Durch den Spotify-Effekt hätte man die richtige "Playlist" für seinen speziellen Use-Case immer dabei beziehungsweise könne man sich diese nach Belieben zusammenstellen. Die benötigten Funktionen lassen sich durch Softwareupdates ausrollen, ohne dass man die Hardware anfassen muss.

Mit der Eternus Data Services Platform hat der Konzern nun sein Portfolio um einen softwarebasierten Scale-out Block-Speicher erweitert. Dieser soll dabei helfen, sämtliche Datenpools in einer Umgebung zu konsolidieren, beliebige Anwendungen unterstützen und dabei eine native Cloudunterstützung umfassen. Außerdem ermöglicht die Lösung laut Hersteller einen autonomen Betrieb und - nach Bedarf - den Einsatz neuer Technologien. Die SDS-Lösung benötige mindestens vier Speicherknoten und unterstütze auf der Data Plane Speichertechniken wie SCM, NVMe Flash, SATA Flash, Hybrid Flash und Cloud. Die Kommunikation zu den Anwendungen und Datenbanken erfolge über iSCSI, S3, NVMe und TCP. Auf der Control Plane stehen ein umfassendes System-Management, SLO- und Policy-Management sowie Insights Cloud Analytics zur Verfügung. Der Zugriff erfolgt über RESTful APIs.

Partnerschaft mit Qumulo

Um Speziell das starke Wachstum an unstrukturierten Daten - hier nennt Fujitsu jährliche Wachstumsraten von 30 bis 60 Prozent - zu zügeln, bringt der Technologiekonzern ein neues File-System in Stellung. Schließlich bilden unstrukturierte Daten, die heute etwa 90 Prozent der Geschäftsinformationen ausmachen, laut Hübel die Grundlage für etablierte Geschäftsmodelle und stehen für moderne Geschäftsanwendungen in Medizin, Medien, autonomes Fahren etc.

Hier setzt Fujitsu auf eine Zusammenarbeit mit dem US-amerikanischen Softwareanbieter Qumulo, der ein hybrides File-System auf den Markt gebracht hat, das neben Fujitsu auch auf Plattformen von HPE, AWS und GCP läuft. Das softwaredefinierte Distributed File System ist laut Qumulo als skalierbare NAS-Lösung designt, das sowohl Kapazität als auch Performance nahtlos über On-Premises als auch in die Cloud skalieren kann.

Die Lösung lässt sich ab vier Storage-Knoten betreiben, wobei jeder Knoten als Software-Stack agiert. Zudem seien klassische Zugriffsprotokolle wie SMB, NFS und FTP integriert. Für die intelligente Kommunikation sind außerdem Active Directory und LDAP möglich. Für das Ansprechen der Softwarelösung stehen RESTful APIs, CLI und eine Web-basierte GUI zur Verfügung.

Weiter umfasst die SDS-Lösung leistungsstarke Echtzeit-Analysen und Kapazitätskontingente, die es dem Administratoren zum einen erlauben, seine Daten zu verwalten - unabhängig davon, wie große deren Footprint ist, oder wo sich die Daten befinden. Zum anderen kann er einem Directory bestimmte Kapazitäten für Files zuweisen. Zum weiteren Funktionsumfang der Software gehören außerdem eine kontinuierliche Datenreplikation sowie Snapshots - inklusive einer Echtzeit-Aggregierung der File-Metadaten.

Scalable Block Store

Das File-System selbst basiert auf einem leistungsstarken Data-Management-System namens Scalable Block Store (SBS). Dieses agiere nach den Prinzipien einer massiv-skalierbaren, distributiven Datenbank, die Qumulo nach eigenen Angaben an die spezialisierten Anforderungen File-basierter Daten ausgerichtet hat. SBS ist zudem die Block-Ebene des File-Systems der US-Amerikaner. Konzeptionell ist die gesamte Speicherkapazität eines Qumulo-Clusters in einem einzelnen, geschützten virtuellen Adressraum organisiert. Jede geschützte Adresse innerhalb des Raums speichere außerdem einen 4K-Block der Daten.

Da das gesamte File-System durch SBS in einem solchen geschützten virtuellen Adressraum gespeichert ist - inklusive Directory-Struktur, Benutzerdaten, File-Metadaten, Analytics und Konfigurationen - sei es zum einen möglich, dass die SDS-Lösung alle Blöcke wiederherstellen kann, selbst wenn mehrere Festplatten ausfallen. Der geschützte Speicher agiert laut Qumulo als Schnittstelle zwischen dem File-System und den Blockspeicher-basierten Daten, die auf den angebundenen Blockspeicher-Devices aufgezeichnet werden. Dabei kann es sich etwa um virtuelle Festplatten handeln, die aus verschiedenen HDDs und SSDs oder aus Blockspeicher-Ressourcen in der Cloud gebildet werden.

Auf diese Weise ermöglicht SBS dem File-System eine massive Skalierbarkeit, eine optimierte Performance und Datenschutz, wie Qumulo weiter bekundet. Letzterer beinhaltet zudem ein cloudbasiertes Monitoring, das eine proaktive Erkennung von Events wie Disk-Fehler umfasst, um mögliche Ausfälle im Vorfeld verhindern zu können. Eine Historie soll außerdem dabei helfen, Trends abzulesen und Workflows zu optimieren.

Fujitsu sieht mit dem File-System von Qumulo die Möglichkeit, eine SDS-Architektur zu entwickeln, die als Grundlage für datengetriebene Geschäftsmodelle dienen kann und dabei keine Probleme mit großen Datenmengen hat, da das File-System derzeit auf bis zu 17 ZByte skalierbar sein soll.

Timo Scheibe ist Redakteur bei der LANline.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Quantum stellt NVMe-Speicherplattform für anspruchsvolle Workflows vor
Fujitsu ergänzt sein Storage-Portfolio um Commvault-Appliances
Suse: Bessere Public-Cloud-Integration und Container-Unterstützung mit Enterprise Storage 6

Verwandte Artikel

Fujitsu

HDD

NVMe