Decodierbarder gut finanziert Echtzeit-Data-Engineering- und Stream-Processing-Plattform, die teilweise auf der Apache Flink Open-Source-Projekt, bringt heute ein großes Update heraus, das darauf abzielt, den Dienst für große Unternehmen attraktiver zu machen. Neben der Erweiterung seiner Bibliothek von Konnektoren, um die Datenaufnahme aus mehr Quellen zu ermöglichen, und einer neuen Option für den Unternehmenssupport, ist das Hauptmerkmal hier die Einführung seiner automatisierten Funktionen zur Größenanpassung von Aufgaben. Dank dessen kann Decodable jetzt Workloads nach Bedarf dynamisch konfigurieren, um Leistung und Kosten zu optimieren.
Wie Eric Sammer, Gründer und CEO von Decodable, mir sagte, glaubt er, dass die Stream-Verarbeitung selbst zwar schnell zum Mainstream wird – wobei Apache Flink zum De-facto-Standard wird –, was darum herum passiert, aber noch nicht ganz Mainstream ist, teilweise weil es sich bisher nur um Unternehmen handelt mit hochentwickelten Ingenieurteams konnten auf dieser Technologie aufbauen.
„Die Analogie, an die ich denke, ist die Vernetzung von Switches“, erklärte er. „Wir können Pakete hin und her bewegen. Die nächste Iteration davon – der Teil, von dem ich glaube, dass er noch nicht vollständig Mainstream ist – ist die Verarbeitungsfähigkeit darüber hinaus – die Fähigkeit zu transformieren und zu aggregieren. Was wir meiner Meinung nach vor 10 Jahren Streaming Analytics genannt hätten.“
Unternehmen wie Lyft, Uber oder Stripe sind in der Lage, diese Abstraktionsschicht der Enterprise-Klasse zusätzlich zu diesen Echtzeit-Datenströmen zu erstellen. Andere, argumentiert er, brauchen dafür ein Tool wie Decodable, besonders wenn sie verbraucherorientierte Anwendungen entwickeln wollen.
„Streaming ist ein Stück Technologie“, bemerkte er auch. „Es ist eine Sammlung von Debezium plus Kafka oder Redpanda oder was auch immer – plus Flink, plus APIs und all diese anderen Dinge. Und es ist unerschwinglich, ein Team zusammenzustellen und das zu operationalisieren. Hier schaffen wir Mehrwert. Und deshalb konzentrieren wir uns auf Entwicklererfahrung sowie Self-Service- und Unternehmensfunktionen.“
In Bezug auf die neue Funktion zur Größenanpassung von Aufgaben stellte Sammer fest, dass Benutzer dem Dienst mitteilen können, wie viele Aufgaben sie einer bestimmten Arbeitslast widmen möchten. Decodable wird dann auf diese maximale Anzahl von Aufgaben hochskaliert – oder herunterskaliert, falls gerechtfertigt. Für viele Benutzer kann dies zu insgesamt niedrigeren Ausgaben führen. Und obwohl dies auch bedeuten kann, dass sie nicht so viel für Decodierbar ausgeben, glaubt Sammer, dass diese Benutzer mehr Arbeitslast für den Dienst bringen werden, wenn das Unternehmen die Stream-Verarbeitung für seine Benutzer einfacher und kostengünstiger gestalten kann. „Es gibt nur sehr wenige Fälle, in denen Sie keine frischeren, genaueren Daten wünschen – oder in Echtzeit eine bessere Entscheidung treffen können“, sagte er. „Aus dieser Perspektive werden also jedes Mal, wenn wir es jemandem billiger machen, einen Workload auf Decodable auszuführen, weitere Workloads hinzugefügt.“