Neuheiten auf Entwicklerkonferenz Reinvent in Las Vegas vorgestellt

AWS präsentiert weitere Funktionen und Services für seine Cloud-Plattform

2. Dezember 2016, 7:55 Uhr | Von Timo Scheibe.

Amazon Web Services (AWS) hat im Rahmen seiner fünften Entwicklerkonferenz AWS Reinvent in Las Vegas eine Vielzahl weiterer Dienste und Funktionen für seine Cloud-Plattform vorgestellt. Zu den Neuerungen gehört beispielsweise der neue Service "Athena", der es Anwendern erlaubt, Daten in Amazon S3 über standardmäßige SQL-Anfragen zu analysieren. Die Abfrage erfolgt laut AWS, ohne dass das Cluster verwaltet oder angepasst oder eine Infrastruktur aufgesetzt werden muss. Dabei rechnet der Cloud-Provider pro Abfrage (Pay as You Go) ab. Die in Amazon S3 gespeicherten Daten sollen sich mit Athena mit nur wenigen Klicks verbinden lassen. Die Ergebnisse der SQL-Abfragen erhalten Anwender laut AWS innerhalb weniger Sekunden. Da Athena automatisch skaliere und Aufgaben parallel bearbeite, könne der Anwender auch komplexe Anfragen in großen Datenbeständen schnell durchführen.

Außerdem kündigte AWS an, dass "Aurora" nun vollständig kompatibel mit MySQL und PostgreSQL ist. Die Datenbank-Engine soll die Geschwindigkeit und Verfügbarkeit von kommerziellen Highend-Datenbanken mit der Einfachheit und Kosteneffizient von Open-Source-Datenbanken vereinen. Dadurch sei die Leistung besser als die einer typischen PostgreSQL-Datenbank.

Zudem stellt der Cloud-Provider neue speicher-, rechen - und E/A-leistungsoptimierte Instanzen für den „Elastic Compute Cloud (EC2)“-Service vor. Dazu gehören zwei T2-Instanzen, die über eine CPU-Basisleistung mit der Möglichkeit der Verarbeitung von Spitzenlasten oberhalb der Basisleistung verfügen sollen. Die "t2.xlarge"-Instanz hat 16 GByte Arbeitsspeicher und vier VCPUs, während die "t2.2xlarge"-Instanz 32 GByte Arbeitsspeicher und acht VCPUs besitzt. Außerdem hat Amazon zwei R4-Instanzen für Hochleistungsdatenbanken, verteilte Arbeitsspeicher-Caches, In-Memory-Analysen, Genomaufbau und -analyse sowie andere Unternehmensanwendungen vorgestellt. Laut AWS enthalten diese einen doppelt so großen L3-Cache wie der der R3-Instanz sowie eine „16xlarge“-Größe mit 488 GByte DDR4-Speicher und 64 VCPUS.

Anfang 2017 will AWS zudem C5-Instanzen verfügbar machen, die die nächste Generation des Intel-Xeon-Prozessors mit AVX 512, bis zu 72 VCPUs und 144 GByte Speicher haben. Diese sollen sich vor allem für Stapelverarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, MMO-Gaming und Videocodierung eignen. Anfang nächsten Jahres sollen dann auch die neuen I3-Instanzen verfügbar sein. Sie enthalten laut Hersteller 64 VCPUs und 15,2 TByte SSD-Speicher mit niedriger Latenzzeit. Die Instanzen sollen rund 3,3 Millionen I/O-Operationen pro Sekunde bei 4 KByte Blocksize und einen E/A-Durchsatz von 16 GByte/s schaffen.

Als erste Cloud-Instanz mit programmierbarer Hardware für Field Programmable Gate Arrays (FPGA) führt AWS die "EC2 F1"-Instanz ein. Anwender können laut Herstellerangaben ihre eigenen FPGAs programmieren und dadurch die Performance um das Dreißigfache von Standard-CPUs erhöhen. Außerdem sollen die F1-Instanzen "FPGA Developer AMI" und "Hardware Developer Kit" alles enthalten, was ein Entwickler benötigt, um Hardwarebeschleunigungscode zu entwickeln, zu simulieren, zu debuggen und zu erstellen. Ein fertiges FPGA-Design könne der Entwickler als FPGA-Bild (AFI) anschließend sichern und mit wenigen Klicks bereitstellen. Auch sei es möglich, dass Anwender eigene Designs nutzen oder vorgefertigte AFIs über den AWS-Marketplace beziehen. FPGAs sind laut Amazon über eine spezifisch isolierte Netzwerkstruktur mit F1-Instanzen verbunden und werden nicht mit anderen Instanzen, Nutzern oder Accounts geteilt.

Ein weiteres neues EC2-Feature ist "Elastic GPU". Dabei handelt es sich um flexible Grafikprozessoren (GPUs), die sich mit EC2-Instanzen verbinden lassen. Dadurch sollen Anwender die passende Grafikbeschleunigung für spezifische Workloads konfigurieren können, ohne dass sie an Hardwarekonfigurationen oder eine limitierte GPU-Auswahl gebunden sind. Der Service unterstütze zudem OpenGL und umfasse mehr als 8 GByte GPU-Speicher. Damit ist er laut AWS ideal für Gaming, Industrial Design, Visualisierungen, 3D-Modellierungen, Rendering und virtuelle Desktops geeignet.

Um Code oder Software auf einem Virtual Private Server in der Cloud ausführen zu können, hat Amazon mit "Lightsail" einen weiteren Service eingeführt. Dieser beinhaltet nach eigenen Angaben die nötigen Komponenten für Projekte wie Websites, Blogs, benutzerdefinierte Anwendungen oder Entwicklungs-Server. Mit wenigen Klicks ließen sich mit Lightsail Standard-Anwendungen wie Worldpress, Drupal, Joomla und andere Web-Anwendungen einrichten. Nutzer des Diensts müssen laut AWS für jeden Server einen monatlichen Preis ab fünf Dollar zahlen.

Ebenfalls hat AWS mit "Lex", "Polly" und "Rekognition" drei neue AI-Services vorgestellt. Bei Lex handelt es sich um einen vollständig verwalteten und skalierbaren Service für die Entwicklung von Konversationsoberflächen mit Stimme und Text. Er basiert laut AWS auf der Technologie für automatische Spracherkennung und natürliches Sprachverständnis. Entwickler sollen dadurch intelligente Sprachassistenten beziehungsweise Bots bauen und testen können. Der Dienst erstelle daraufhin Sprachmodelle, die für Web-Anwendungen, Chat und Messenger Apps sowie sprachgesteuerte Apps und Geräte verwendet werden können. Polly soll es hingegen ermöglichen, natürlich klingende Sprachfunktionen in bereits existierende Programme zu integrieren oder neue Produkte mit Sprachfunktionen zu kreieren. Laut AWS verfügt der Dienst über 47 natürliche männliche sowie weibliche Stimmung und unterstützte 24 Sprachen mit verschiedensten Akzenten. Rekognition hilft Entwicklern dabei, Programme zu erstellen, die Bilder analysieren und Gesichter, Objekte und Szenen erkennen. Dafür verfüge der Service über umfassende Bildklassifikation und -erkennung und nutze Deep-Learning-Algorithmen.

aws_snowball_screenshot
Mit „Amazon Snowmobile“ können Kunden On-Premises-Daten von bis zu 100 PByte über einen speziellen Versandbehälter in ein AWS-Rechenzentrum transportieren und anschließend in die Cloud migrieren. (Bild: AWS)

Eine weitere Neuerung ist die Software "Greengrass", die AWS-Lambda-Funktionen und AWS IoT lokal auf jedem verbundenen Gerät ausführen lässt. Zudem bietet sie Entwicklern die Möglichkeit, einem IoT-Gerät über die Management-Konsole Lambda-Funktionen hinzuzufügen. Laut AWS beinhaltet der Dienst Messaging und Synchronisierungsmöglichkeiten, damit Geräte direkt mit anderen kommunizieren können, ohne den Umweg über die AWS-Cloud nehmen zu müssen.

Das neue "Snowball Edge"-Speichergerät soll die doppelte Menge an Daten speichern wie AWS Snowball. Anwender können bis zu 100 TByte Daten verschlüsselt auf das Gerät übertragen. Zudem hat AWS in dem Gerät WLAN, mobile Funkkommunikation, Greengrass und eine zur "EC2 m4.4 xlarge"-Instanz äquivalente Rechenleistung eingebaut. Eine NFS-Schnittstelle soll zudem den Datenaustausch von Snowball Edge mit Amazon S3 ermöglichen.

Größere Datenmengen im Exabyte-Bereich können laut AWS mit dem neuen Service "Snowmobile" bewegt werden. Dieser erlaubt es Kunden, On-Premises-Daten von bis zu 100 PByte innerhalb einiger Wochen in einem 45 Fuß langen Versandbehälter, der in einem Truck transportiert wird, in die Cloud zu migrieren.

Weitere Informationen finden sich unter aws.amazon.com/de.

Timo Scheibe ist Redakteur bei der LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Precitec Optronik GmbH

Weitere Artikel zu saperion AG

Weitere Artikel zu Hitachi Data Systems

Weitere Artikel zu Arcserve

Matchmaker+