Alles für Big Data

IT-Impressionen von der US-Ostküste

12. November 2012, 7:00 Uhr | Stefan Mutschler

IT-Innovationen gibt es nicht nur in Kalifornien - auch wenn Spirit und Infrastruktur des Silicon Valleys einen herausragend guten Boden für Hightech-Entwicklungen bilden. Auf einem Trip von Miami über Boston nach New York besuchte die LANline eine Reihe von Unternehmen, deren Innovationsfreude den Newcomern an der Westküste in nichts nachsteht. Einige von ihnen sind in Deutschland bereits wohlbekannt und etabliert, andere stehen sogar noch vor der Veröffentlichung ihres ersten Produkts im Heimatmarkt.Aetherstore versteht sich gegenwärtig noch in erster Linie als Forschungs- und Entwicklungslabor. Im Herzen von Manhattan in New York gelegen, beschäftigt sich die junge Softwareschmiede derzeit vor allem mit skalierbaren, autonomen Speichernetzwerken, bedarfsgesteuerten Architekturen für die Einrichtung von Software-Services und verteilten Konsistenzalgorithmen. Erstes Ziel ist es, kleinen und mittelständischen Unternehmen sowie Schulen und Universitäten dabei zu helfen, ihre schon vorhandenen Speicherressourcen bestmöglich zu nutzen.

Intelligenz für Speichersysteme
Bei seinem Lösungsansatz geht Aetherstore davon aus, dass ein Großteil der Festplattenkapazitäten an den einzelnen Arbeitsstationen der Anwender einer Organisation ungenutzt ist. Ein einfach - auch von zentraler Stelle aus - zu installierender Client an all diesen Workstations (bisher nur Windows, die Unterstützung von MacOS und Linux ist geplant) soll diesen Speicherüberschuss (oder Teile davon) an einen zentralen Pool vermitteln, der anschließend allen als "Netzwerklaufwerk" zur Verfügung steht. Der User merkt außer einem neuen Laufwerksbuchstaben nicht viel von der neuen Speichermethode. Wenn er eine Datei speichert, wandert diese aus Performancegründen zunächst in einen lokalen Cache an seiner Station. Während der Fall für den Nutzer damit erledigt ist, wird die Datei im Cache in einem Hintergrundprozess zunächst kodiert und anschließend auf geeignete Laufwerke im Pool verteilt. Sobald dieser Vorgang abgeschlossen ist, setzen sich automatische Sicherungsmechanismen in Gang, die mit einem Cloud-Storage-Service korrespondieren. Nach Vergabe der Versionsnummer werden die Dateien verschlüsselt und bei einem Cloud-Provider wie beispielsweise Amazon, Mozy (EMC) oder Idrive gesichert.
Die Idee dabei ist es, normalerweise brach liegende Speicherressourcen in Form eines schnellen und sicheren Netzwerkspeichers verfügbar zu machen und so die effektive Speicherkapazität deutlich zu erhöhen, und zwar ohne Anschaffung zusätzlicher Hardware - speziell Storage-Server - und ohne die IT-Administration zu belasten. Anders als andere Ansätze für verteilte Datenspeicherung verspricht Aetherstore, keine Kompromisse bei Performance und Sicherheit eingehen zu müssen. Derzeit laufen noch umfangreiche Tests, sowohl im Labor als auch bei Pilotanwendern. Im ersten Quartal 2013 will Aetherstore mit seiner ersten Lösung weltweit in den Verkauf gehen. Weitere Infos gibt es unter www.aetherstore.com.
Anders als Aetherstore ist Exagrid bereits seit sechs Jahren mit Produkten auf dem Markt - bislang allerdings schwerpunktmäßig in den USA. Nur 15 Prozent seines Umsatzes generiert das Storage-Unternehmen aus dem Bostoner Hinterland außerhalb der Vereinigten Staaten. Das Engagement auf dem europäischen Markt will man jedoch künftig deutlich stärken. Die Schlüsseltechnik bildet Disk-Backup mit Deduplikation, was das zeitintensive Tape-Backup ablösen soll. Als Besonderheit reklamiert Exagrid für sich eine Grid-Architektur, die durch ein Exagrid-eigenes "Zone-Level"-Deduplizierungsverfahren und die Fähigkeit, komplette Storage-Server inklusive Platten, Prozessoren, Memory und Netzwerkanschlüssen aufzunehmen, besonders skalierbar sein soll. Wie Block-Level-Deduplikation unterstützt auch das Zone-Level-Verfahren alle Datentypen und alle Backup-Applikationen.

Disk-Backup für Fortgeschrittene
Ähnliche Skalierbarkeit bietet laut Exagrid ansonsten nur die Byte-Level-Deduplikation, die aber hinsichtlich Datentypen und Applikationen massive Einschränkungen mit sich bringe. Auch bei der Performance soll das Exagrid-Deduplizierungsverfahrengroße Vorteile bringen - beim Restore noch mehr als beim Backup. Per "Instant Restore" soll eine Wiederherstellung des letzten Backups innerhalb weniger Minuten möglich sein.
Exagrid sieht sich mit seinen skalierbaren Backup-Appliances gegenüber Konkurrenten wie EMC, Quantum, HP und Dell gut aufgestellt. Zielmarkt sind in erster Linie mittelgroße Unternehmen mit einem Datenvolumen zwischen 1 und 150 TByte für das Voll-Backup. Für die Zukunft sind Datenvolumen bis zu 1 PByte angepeilt. Aktuell sollen weltweit etwa 4.500 Systeme von Exagrid bei rund 1.500 Kunden im Einsatz sein, weitere Infos unter www.exagrid.com.

Schwarmintelligenz für skalierbare Datenbanken
Wer mehr Leistung für seine Datenbank braucht, hat heute nicht viele Möglichkeiten. In der Regel heißt es: aufsetzen auf einen stärkeren Rechner. Dieses Verfahren passt nicht besonders gut zu neuen, flexiblen Rechenzentrumskonzepten - und noch weniger zu den exponentiell steigenden Datenmengen, die Fachleute mit dem Einsatz von "Big Data" erwarten. Nuodb hat eine Datenbankarchitektur entwickelt, die sich vom bisher üblichen, monolithischen Ansatz verabschiedet. Verteilte Intelligenz soll dafür sorgen, dass sich Datenbanken nahezu beliebig viele Standard-Server nutzbar machen. Auf diese Weise sollen sie elastisch mit wachsenden Anforderungen und Datenmengen skalieren. "In der Natur gibt es auf großer Skalierung nichts, das zentral gesteuert wird", erklärt uns Barry Morris, Gründer und CEO von Nuodb beim Besuch in der Bostoner Unternehmenszentrale unweit der berühmten Stanford-University. "Betrachten Sie sich etwa einen Vogelschwarm oder gar die Organisation des Weltalls - nirgends gibt es so etwas wie einen zentralen Lenker".
Mit dieser Erkenntnis machte sich Morris zusammen mit seinem Partner Jim Starkey, der in der Szene seit Interbase-/Borland-Zeiten (Firebird-Projekt) als eine Art Datenbankgenius gilt, an die Schaffung einer von Grund auf neuen Architektur für relationale Datenbanken.
Kern der neuen Architektur ist ein Peer-to-Peer-System, das sich wie eine Datenbank verhält. Daten, Indizes und Transaktionsstatus werden in mehreren Nodes vorgehalten und auf Anfrage an den Nodes zur Verfügung gestellt, die diese Informationen benötigen. Traditionelle Locks sind nicht erlaubt, stattdessen gibt es ein asynchrones, verteiltes Permission-System. Inzwischen steht Nuodb kurz vor der Veröffentlichung seiner ersten kommerziell verfügbaren Version der Datenbanksoftware. Erst am 3. Oktober hat das Unternehmen, das übrigens noch vor einem Jahr Nimbus DB hieß, mit Beta 9 die letzte geplante Betaversion veröffentlicht. Wenn alles glatt geht, sollen im November der Release Candidate 1 und im Dezember schließlich die Verkaufsversion 1.0 folgen. Bis dahin steht die Beta-Version auf der Homepage von Nuodb kostenfrei zum Download zur Verfügung (www.nuodb.com).
Datacore Software will für Speichersysteme das sein, was Vmware für Server ist: Experte für Virtualisierung. Datacore betitelt sich inzwischen als Storage-Hypervisor-Company, denn das Schlüsselprodukt Sansymphony-V versteht sich als eine Art Betriebssystem für konvergente Speicherlandschaften. Es bringt Speichersysteme und zugehörige Betriebssystemplattformen zusammen - unabhängig vom Hersteller. Entscheidend ist lediglich, dass die Daten blockbasierend zur Verfügung stehen. Als Virtualisierungsschicht arbeitet die Software auch unabhängig von der verwendeten Übertragungstechnik, gleichgültig ob Fibre Channel (FC), iSCSI oder SAS.
Abseits des Tagesgeschäfts und weitgehend unbemerkt von Anwendern und Interessenten warf Datacore vor Jahren große Teile des Codes seiner Software über Bord, um an entscheidenden Punkten die Weichen neu zu stellen. Mit dem Release 9 "schmuggelte" der Softwarehersteller erst in diesem Jahr den neuen Release-Strang in die Vermarktung. Was zunächst wie eine - wenn auch umfangreichere - neue Version des Vorgängers aussah, ist in Wirklichkeit ein komplett neuer Release-Strang.

Neuer Code zur Speichervirtualisierung
"Wir waren 2008 bereits ein international sehr erfolgreiches Unternehmen - und doch konnten wir nicht länger darüber hinweg sehen, dass die Basisarchitektur unserer Lösungen an einigen Stellen über kurz oder lang an ihre Grenzen stoßen würde", gesteht George Teixeira, President und CEO von Datacore. "Eine der schwersten Entscheidungen bei Datacore war es, parallel zu den laufenden Verbesserungen an den vorhandenen Versionen mit der Entwicklung eines neuen Release-Strangs zu beginnen, der an einem wesentlich früheren Punkt der Entwicklung aufsetzt. Sansymphony hatte damals immerhin bereits gut zwei Millionen Code-Zeilen." Neben einer komplett neuen, mehrstufigen Cache-Architektur kam mit Release 9 auch die Fähigkeit, die freien RAM- und CPU-Kapazitäten vorhandener Storage-Server zu nutzen. "Insgesamt ist Sansymphony jetzt so gestaltet, dass wir der Zukunft entspannt entgegenblicken können", freut sich Ziya Aral, Chairman und Visionär der Company. Zu den weiteren Neuerungen gehören unter anderem die Fähigkeit, Speicherinfrastrukturen unkompliziert als Dienstleistung bereitzustellen (IaaS), und ein zentrales Speicher-Management über die gesamte Infrastruktur.
Der Autor auf LANline.de: ElCorrespondente

"In der Natur gibt es auf großer Skalierung nichts, das zentral gesteuert wird", erklärt Barry Morris, Gründer und CEO von Nuodb. Foto: Stefan Mutschler

"Insgesamt ist Sansymphony jetzt so gestaltet, dass wir der Zukunft entspannt entgegenblicken können", freut sich Ziya Aral, Chairman und Visionär der Company (rechts). Links im Bild: George Teixeira, President und CEO von Datacore. Foto: Stefan Mutschler
LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Fraunhofer-Institute

Matchmaker+