AWS erweitert seine serverlosen Angebote – Tech

AWS erweitert seine serverlosen Angebote – Tech

Auf seinem AWS Summit San Francisco hat der Cloud-Computing-Bereich von Amazon heute eine Reihe von Produkteinführungen angekündigt, darunter zwei, die sich auf sein serverloses Portfolio konzentrieren. Die erste davon ist der GA-Start von Amazon Aurora Serverless V2, sein serverloser Datenbankdienst, der jetzt erheblich schneller als die vorherige Version hoch- und herunterskaliert werden kann und in feinkörnigeren Schritten skaliert werden kann. Die andere ist die Allgemeine Einführung von SageMaker Serverless Inference. Beide Dienste wurden erstmals im letzten Dezember bei AWS re:Invent in der Vorschau vorgestellt.

Swami Sivasubramanian, der VP für Datenbank, Analytik und ML bei AWS, sagte mir, dass heute mehr als 100.000 AWS-Kunden ihre Datenbank-Workloads auf Aurora ausführen und dass der Service weiterhin der am schnellsten wachsende AWS-Service ist. Er merkte an, dass die Skalierung der Datenbankkapazität zuvor in Version 1 fünf bis 40 Sekunden dauerte und die Kunden die Kapazität verdoppeln mussten.

„Da es serverlos ist, mussten sich Kunden keine Gedanken mehr über die Verwaltung der Datenbankkapazität machen“, erklärt Sivasubramanian. „Allerdings, um eine Vielzahl von Produktions-Workloads mit auszuführen [Aurora] Serverless V1, als wir immer häufiger mit Kunden sprachen, sagten sie, dass Kunden die Kapazität brauchen, um in Bruchteilen einer Sekunde und dann in viel feinkörnigeren Schritten zu skalieren, und nicht nur die Kapazität zu verdoppeln.“

Sivasubramanian argumentiert, dass dieses neue System Benutzern bis zu 90 % ihrer Datenbankkosten einsparen kann, verglichen mit den Kosten für die Bereitstellung von Vorkapazitäten. Er merkte an, dass es keine Kompromisse bei der Umstellung auf v2 gibt und dass alle Funktionen in v1 weiterhin verfügbar sind. Das Team änderte jedoch die zugrunde liegende Computerplattform und die Speicher-Engine, sodass es jetzt möglich ist, in diesen kleinen Schritten zu skalieren und dies viel schneller zu tun. „Das ist eine wirklich bemerkenswerte Ingenieurleistung des Teams“, sagte er.

AWS-Kunden wie Venmo, Pagely und Zendesk nutzen bereits dieses neue System, das im vergangenen Dezember in die Vorschau ging. AWS argumentiert, dass es nicht sehr schwer ist, Workloads, die derzeit auf Amazon Aurora Serverless v1 ausgeführt werden, in v2 umzuwandeln.

Bildnachweis: AWS

In Bezug auf SageMaker Serverless Inference, das jetzt ebenfalls allgemein verfügbar ist, stellte Sivasubramanian fest, dass der Dienst Unternehmen einen Pay-as-you-go-Service für die Bereitstellung ihrer maschinellen Lernmodelle – und insbesondere derjenigen, die häufig im Leerlauf sind – in der Produktion bietet. Damit bietet AWS jetzt vier Inferenzoptionen: Serverlose Inferenz, Echtzeit-Inferenz für Workloads, bei denen eine geringe Latenz von größter Bedeutung ist, SageMaker Batch Transform für die Arbeit mit Datenstapeln und SageMaker Asynchronous Inference für Workloads mit großen Payload-Größen, die möglicherweise eine lange Verarbeitung erfordern mal. Bei so viel Auswahl ist es vielleicht keine Überraschung, dass AWS auch die anbietet SageMaker Inference Recommender um Benutzern dabei zu helfen, herauszufinden, wie sie ihre Modelle am besten bereitstellen können.

tch-1-tech