Auf seiner alljährlichen re:Invent-Konferenz geizte Cloud-Gigant AWS nicht mit Superlativen: Mehr als 65.000 Teilnehmer waren nach Las Vegas gekommen, um die vielen Ankündigungen, technische Deep Dives in mehr als 2.800 Sessions und natürlich das Netzwerken mit dem Hersteller, Ausstellern und Kollegen mitzunehmen. Eine Portion Geduld und Sitzfleisch mussten die Teilnehmer mitbringen: AWS-CEO Andy Jassy machte in einer dreistündigen Keynote eine Fülle von Ankündigungen. Spannende Entwicklungen gibt es dieses Jahr vor allem bei Machine Learning (ML), Data Lakes sowie hybriden Infrastrukturen. Aber auch im klassischen Infrastrukturbereich bleibt AWS nicht stehen, sondern treibt konsequent die Weiterentwicklung eigener ARM-Prozessoren voran.

Trotz des langanhaltenden Trends zu PaaS und Serverless Computing legt AWS einen starken Fokus auf die Bereitstellung eines breiteren Angebots von virtuellen Servern (Amazon EC2-Instanzen). So bietet AWS heute viermal mehr verschiedene EC2-Instanztypen als noch vor zwei Jahren an. Nachdem AWS bereits letztes Jahr mit der Ankündigung eines hauseigenen ARM-basierten Prozessors Graviton überrascht hatte, stellte der Cloud-Gigant nun mit dem Graviton2 dieses Jahr die nächste Generation vor – ein klarer Schlag gegen Intel und AMD. Graviton2 liegt den neuen EC2-Instanztypen M6g, C6g sowie R6g zugrunde. Während die M6g-Klasse auf den Alltagseinsatz abzielt, fokussieren C6g auf rechen- und R6g auf speicherintensive Anwendungsfelder. Im Vergleich zu Intel-Xeon-basierten M5-Instanzen seien Leistungssteigerungen von bis zu 40 Prozent zu erwarten, die Instanzen aber gleichzeitig bis zu 20 Prozent günstiger, so AWS.

Einen weiteren Höhepunkt der Konferenz stellte die Abschluss-Keynote von CTO Dr. Werner Vogels dar. Vogels gab darin tief technische Einblicke in die Infrastrukturwelt von AWS, darunter Details der hauseigenen Nitro Hypervisorarchitektur. Dank dieser nähern sich virtuelle Maschinen in AWS immer mehr der Bare-Metal-Latenz und -Performance an. Dies gelingt durch die Auslagerung des Netzwerk-Stacks und der I/O-Verarbeitung vom Hypervisor in spezialisierte Nitro-Karten, proprietäre Amazon-Hardware, die in allen Nitro-Hosts verbaut ist. Zudem soll die Nitro-Architektur eine deutlich verbesserte VM-Isolation erreichen. Von den Performance-Verbesserungen profitieren nicht nur klassische VMs, sondern auch Amazons Angebot für MicroVMs (Firecracker).

In seiner Keynote gab CTO Dr. Werner Vogels tief technische Einblicke in die Infrastrukturwelt von AWS. Bild: Dr. Constantin Söldner

Machine Learning

Eine Ankündigungswelle gab es zu ML. AWS arbeitet verstärkt daran, ML-Frameworks wie TensorFlow, MXNet oder PyTorch auf die eigenen Plattform abzustimmen. Die spannendsten Neuerungen betrafen aber eindeutig das ML-Flagschiff Sagemaker. SageMaker ist Amazons Kerndienst zum Erstellen, Trainieren und Implementieren von ML-Modellen. Jetzt veröffentlicht AWS eine Reihe von Developer Tools für SageMaker, um ML-Entwicklern Werkzeuge an die Hand zu geben, wie man sie aus der klassischen Softwareentwicklung kennt. Im ML-Bereich setzt AWS damit neue Maßstäbe.

AWS veröffentlicht eine Reihe von Developer Tools für SageMaker, um ML-Entwicklern geeignete Werkzeuge an die Hand zu geben. Bild: AWS

So bekommen Entwickler mit Amazon SageMaker Studio eine Web-basierte IDE an die Hand, die alle notwendigen Werkzeuge zusammenführt: Eine einzige Anwendung unterstützt Codeerstellung, Experimente, Visualisierung, Debugging und Monitoring. So integriert die IDE verschiedene neu angekündigte Services: SageMaker Notebooks, SageMaker Debugger, SageMaker Model Monitor, SageMaker Autopilot und SageMaker Experiments. Damit verspricht AWS, den ganzen ML-Entwicklungszyklus zu verbessern.

SageMaker Notebooks (noch im Preview) stellt die im ML-Bereich populären Jupyter Notebooks als Managed Service bereit. Anwender können zwischen Hardwarekonfigurationen wechseln, ohne sich um die Infrastruktur zu kümmern. Ist während der Nutzung mehr Leistung erforderlich, stellt AWS eine neue EC2-Instanz zur Verfügung und kopiert alle Notebook-spezifischen Daten von der bisherigen Instanz auf die neue.

SageMaker Experiments richtet sich an die Trainingsphase der ML-Modellerstellung. Typischerweise trainiert man dabei viele verschiedene Modelle, um möglichst hohe Präzision zu erreichen. Ein Experiment ist nichts anderes als eine Sammlung von Trials, bestehend aus mehreren Trainingsstufen. SageMaker Experiments soll die Durchführung solcher Experimente erheblich vereinfachen. Ihre Visualisierung kann wiederum in SageMaker Studio erfolgen.

Ein weiterer Bereich, den AWS angeht, ist das Debugging von ML-Trainings. So können ML-Experten herausfinden, ob das Modell bestimmte Dimensionen nicht berücksichtigt oder zu viele Dimensionen berücksichtigt werden. Das Debugging basiert auf der Fähigkeit, Tensors (multidimensionale Vektoren) während des Trainings aufzuzeichnen. Dafür muss der Entwickler den Training Code entsprechend instrumentieren.

Probleme können nicht nur während der initialen Trainingsphase auftreten, sondern auch bei bewährten ML-Modellen, die im Laufe der Zeit keine akkuraten Ergebnisse mehr vorhersagen. Besonders das Problem des „Concept Drifts“ stellt ML-Modelle vor Herausforderungen, die AWS mit SageMaker Model Monitor adressiert: Das Tool überwacht ML-Modelle, die bereits produktiv sind, und erzeugt Alarme, wenn Probleme mit der Datenqualität auftreten.

Das notwendige ML-Know-how and die Vielzahl an ML-Algorithmen sind weitere Herausforderungen, denen AWS sich widmet. Statt selbst aufwendig den passendsten ML-Algorithmus zu identifizieren, kann man diese Aufgabe an SageMaker Autopilot abgeben. Der Dienst richtet sich aber nicht nur an Anfänger, sondern spart auch ML-Experten Zeit. Im Gespräch mit der LANline wies Constantin Gonzalez, Principal Solutions Architect bei AWS, auf diesen Vorteil hin: „Anwender von SageMaker Autopilot können die Erfahrung eines Data Scientists quasi as-a-Service nutzen.“

Die genannten neuen SageMaker-Kapazitäten richten sich vor allem an ML-Experten. Daneben weitet AWS sein Portfolio populärer ML-Anwendungsszenarien aus, die der Anwender direkt als Service konsumieren kann. So will AWS mit Amazon Transcribe Medical die Arbeit von Ärzten erleichtern, die immer mehr Arbeitszeit für das manuelle Erfassen von Daten verwenden müssen. Per Spracherkennung lässt sich die erforderliche klinische Dokumentation automatisieren. Ein weiteres Szenario, für das sich ML gut eignet, ist das Erkennen von Betrugsfällen, etwa bei Geschäftstransaktionen. Amazon Fraud Detector kann Anomalien aufdecken, die auf Betrug hindeuten.

Mit dem ebenfalls ML-basierten Dienst Amazon CodeGuru wiederum lassen sich Code-Reviews automatisieren. Der ML-Dienst, trainiert mit Zehntausenden Code-Reviews aus AWS- und populären Open-Source-Projekten auf GitHub, soll eine Reihe von Code-Problemen identifizieren: die Verletzung von AWS Best Practices, Nebenläufigkeitsproblemen oder inkorrekte Code-Validierung. Besonders spannend ist die Fähigkeit von Amazon CodeGuru Profiler, die „teuersten“ Code-Zeilen aufzuspüren. Profiler gibt Empfehlungen, um die CPU-Nutzung zu reduzieren, die Applikations-Performance zu steigern und die Kosten zu senken.

Mit dem ML-basierten Dienst Amazon CodeGuru lassen sich Code-Reviews automatisieren. Bild: AWS

Ein weiteres Beispiel für einen ML-gestützten Dienst ist Contact Lens for Amazon Connect. Amazon Connect ist ein Dienst, den Unternehmen zum Contact-Center-Aufbau nutzen. Contact Lens basiert auf der automatisierten Transkription der im Contact Center aufgezeichneten Texte. Diese lassen sich zum Beispiel anhand von Stimmungsanalysen kategorisieren, sodass der Benutzer nach Kundenreaktionen filtern kann.

Hybrid Cloud mit AWS Outposts

AWS Outposts kommen in Form eines Racks, dessen Ausstattung das Anwenderunternehmen je nach Rechenanforderung anpassen kann. Bild: AWS

Bereits letztes Jahr hatte Amazon mit AWS Outposts einen Dienst angekündigt, um eine Lücke in der Hybrid-Cloud-Strategie zu schließen. Das Pendant zu Microsoft Azure Arc und Google Anthos dient dazu, native AWS-Dienste auf Amazon-eigener Hardware im lokalen RZ bereitzustellen. Dabei übernimmt AWS auch die Einrichtung von Outposts im lokalen RZ, sodass ein Unternehmen sich nur um Stellplatz und Stromversorgung kümmern muss.

Der Formfaktor ist ein Rack, dessen Ausstattung der Kunde je nach Rechenanforderung anpassen kann. Die Hardware entspricht den gleichen Servern, die auch in den AWS-Rechenzentren zum Einsatz kommen. Einzelne Module lassen sich austauschen. Wählen können Unternehmen zwischen den Standard-EC2-Server-Einheiten C5, C5d, M5, M5d, R5, R5d, G4 und I3en. Speicherseitig kommen mit EBS gp2 Amazons General-Purpose-SSD-Volumes zum Einsatz.

Die Auswahl an AWS-Diensten für Outposts ist allerdings noch begrenzt. Derzeit bietet Outposts mit EC2, EBS und VPC die wichtigsten IaaS-Dienste und unterstützt die Container-Orchestrierungs-Tools ECS und EKS sowie den Big Data-Dienst EMR. Die lokalen Anwendungen können jedoch auch reguläre Dienste wie S3, DynamoDB etc. aus der AWS-Region direkt beziehen.

Outposts zielt vor allem auf Unternehmen, die zwar gerne Cloud-Technik einsetzen wollen, aber auf lokale Datenverarbeitung und vor allem niedrige Latenz angewiesen sind. Im Gespräch hob Michael Hanisch, Head of Technology Deutschland bei AWS, den Nutzen für die Fertigungsindustrie hervor: „Gerade wenn man im Bereich der Maschinensteuerung direkt in die Produktion eingreifen will, ist man auf geringe Latenzzeiten angewiesen.“ Bei der Keynote von Werner Vogels zeigte sich Volkswagen mit einem Auftritt von Group-CIO Dr. Martin Hofmann als Outposts-Nutzer. Native AWS Outposts sind ab sofort verfügbar, VMware Cloud auf AWS soll 2020 folgen.

Data Lakes, Data Warehousing und Containertechnologien

Weitere Ankündigungen von CEO Jassy betrafen vor allem Data Lakes und Data Warehousing. Mit Amazon S3 Data Access Point lässt sich der Zugriff auf S3, Amazons Kern-Storage-Dienst für die Umsetzung von Data Lakes, besser steuern und absichern. Viele neue Features gab AWS auch für seine Data-Warehouse-Lösung Redshift bekannt, die die Query-Performance und die Kosten optimieren sollen. Mit dem Amazon Managed Apache Cassandra Service nimmt AWS einen weiteren NoSQL-Datenbanken-Vertreter in die Liste der gemanagten Datenbanken auf.

Im Bereich Kubernetes ist vor allem die neueingeführte Unterstützung von Fargate für den Kubernetes-Dienst Amazon EKS hervorzuheben. Bei Fargate for Amazon EKS kümmert sich AWS komplett transparent um die Worker-Instanzen, auf denen die Container laufen. Dies kommt Entwicklern entgegen, die sich häufig nicht um den Betrieb von Infrastrukturressourcen kümmern wollen.

Als Termin für die nächste re:Invent ist der 30. November bis 4. Dezember 2020 vorgesehen. Die Termine für die kostenfreien AWS Global Summits, die der Hersteller in vielen Ländern durchführt, stehen noch nicht fest.

Weitere Informationen finden sich unter aws.amazon.com .