Amazon möchte benutzerdefinierte generative KI-Modelle von Unternehmen hosten

AWS, Amazons Cloud-Computing-Unternehmen, möchte die Anlaufstelle für Unternehmen sein, die ihre benutzerdefinierten generativen KI-Modelle hosten und optimieren.

Heute gab AWS die Einführung von Custom Model Import (in der Vorschau) bekannt, einer neuen Funktion in Bedrock, der unternehmensorientierten Suite generativer KI-Dienste von AWS, die es Unternehmen ermöglicht, ihre internen generativen KI-Modelle als vollständig verwaltete APIs zu importieren und darauf zuzugreifen .

Die proprietären Modelle der Unternehmen profitieren nach dem Import von derselben Infrastruktur wie andere generative KI-Modelle in der Bibliothek von Bedrock (z. B. Llama 3 von Meta, Claude 3 von Anthropic), einschließlich Tools zur Erweiterung ihres Wissens, zur Feinabstimmung und zur Implementierung von Schutzmaßnahmen zur Abschwächung ihrer Vorurteile .

„Es gab AWS-Kunden, die ihre eigenen Modelle außerhalb von Bedrock mit anderen Tools verfeinert oder erstellt haben“, sagte Vasi Philomin, Vizepräsident für generative KI bei AWS, in einem Interview mit Tech. „Diese Funktion zum Importieren benutzerdefinierter Modelle ermöglicht es ihnen, ihre eigenen proprietären Modelle zu Bedrock zu bringen und sie direkt neben allen anderen Modellen anzuzeigen, die bereits auf Bedrock vorhanden sind – und sie auch mit allen Workflows zu verwenden, die ebenfalls bereits auf Bedrock vorhanden sind .“

Benutzerdefinierte Modelle importieren

Laut einer aktuellen Umfrage Von Cnvrg, der auf KI spezialisierten Tochtergesellschaft von Intel, nähern sich die meisten Unternehmen der generativen KI, indem sie ihre eigenen Modelle erstellen und diese für ihre Anwendungen verfeinern. Laut der Umfrage sehen dieselben Unternehmen die Infrastruktur, einschließlich der Cloud-Computing-Infrastruktur, als ihr größtes Hindernis für die Bereitstellung an.

Mit Custom Model Import möchte AWS schnellstmöglich den Bedarf decken und gleichzeitig mit der Cloud-Konkurrenz Schritt halten. (Amazon-CEO Andy Jassy angedeutet so viel in seinem jüngsten jährlichen Brief an die Aktionäre.)

Seit einiger Zeit ermöglicht Vertex AI, Googles Analogon zu Bedrock, Kunden, generative KI-Modelle hochzuladen, sie anzupassen und über APIs bereitzustellen. Auch Databricks bietet seit langem Toolsets zum Hosten und Optimieren benutzerdefinierter Modelle, einschließlich seines eigenen, kürzlich veröffentlichten DBRX.

Auf die Frage, was Custom Model Import auszeichnet, antwortete Philomin, dass es – und damit auch Bedrock – eine größere Breite und Tiefe an Modellanpassungsoptionen biete als die Konkurrenz, und fügte hinzu, dass „Zehntausende“ Kunden heute Bedrock verwenden.

„Erstens bietet Bedrock seinen Kunden mehrere Möglichkeiten, mit Serviermodellen umzugehen“, sagte Philomin. „Zweitens haben wir eine ganze Reihe von Arbeitsabläufen rund um diese Modelle – und zwar jetzt Kunden können stehen direkt neben allen anderen Modellen, die wir bereits im Angebot haben. Ein wichtiger Aspekt, den die meisten Leute daran schätzen, ist die Möglichkeit, mit mehreren verschiedenen Modellen und denselben Arbeitsabläufen experimentieren zu können und sie dann tatsächlich vom selben Ort aus in die Produktion zu übernehmen.“

Was sind also die angedeuteten Modellanpassungsoptionen?

Philomin verweist auf Guardrails, mit dem Bedrock-Benutzer Schwellenwerte konfigurieren können, um die Ausgaben von Modellen nach Dingen wie Hassrede, Gewalt und privaten persönlichen oder Unternehmensinformationen zu filtern – oder zumindest zu versuchen, sie zu filtern. (Generative KI-Modelle sind dafür berüchtigt, auf problematische Weise aus dem Ruder zu laufen, einschließlich der Weitergabe vertraulicher Informationen; AWS war es schon keine Ausnahmen.) Er hob auch die Modellbewertung hervor, ein Bedrock-Tool, mit dem Kunden testen können, wie gut ein Modell – oder mehrere – bei einem bestimmten Satz von Kriterien abschneidet.

Sowohl Guardrails als auch Model Evaluation sind nach einer mehrmonatigen Vorschau jetzt allgemein verfügbar.

Ich fühle mich gezwungen, hier anzumerken, dass Custom Model Import derzeit nur drei Modellarchitekturen unterstützt – Hugging Faces Flan-T5, Metas Llama und Mistrals Modelle – und dass Vertex AI und andere mit Bedrock konkurrierende Dienste, einschließlich der KI-Entwicklungstools von Microsoft auf Azure, bieten mehr oder weniger vergleichbare Sicherheits- und Bewertungsfunktionen (siehe Azure AI Content Safety, Modellbewertung in Vertex und so weiter).

Was Ist Einzigartig bei Bedrock ist jedoch die Titan-Familie generativer KI-Modelle von AWS. Und – zeitgleich mit der Veröffentlichung von Custom Model Import – gibt es an dieser Front mehrere bemerkenswerte Entwicklungen.

Verbesserte Titan-Modelle

Titan Image Generator, das Text-zu-Bild-Modell von AWS, ist jetzt allgemein verfügbar, nachdem es letzten November als Vorschau gestartet wurde. Wie zuvor kann Titan Image Generator neue Bilder mit einer Textbeschreibung erstellen oder vorhandene Bilder anpassen, indem er beispielsweise einen Bildhintergrund austauscht, während die Motive im Bild erhalten bleiben.

Im Vergleich zur Vorschauversion kann Titan Image Generator in GA Bilder mit mehr „Kreativität“ erzeugen, sagte Philomin, ohne ins Detail zu gehen. (Ihre Vermutung, was das bedeutet, ist genauso gut wie meine.)

Ich fragte Philomin, ob er mir weitere Einzelheiten darüber mitteilen könne, wie der Titan Image Generator trainiert wurde.

Beim Debüt des Modells im vergangenen November machte AWS keine Angaben dazu, welche Daten genau beim Training des Titan Image Generator verwendet wurden. Nur wenige Anbieter geben solche Informationen bereitwillig preis; Sie betrachten Trainingsdaten als Wettbewerbsvorteil und behalten diese und die damit verbundenen Informationen daher immer griffbereit.

Trainingsdatendetails sind auch eine potenzielle Quelle für Klagen im Zusammenhang mit geistigem Eigentum, ein weiterer Anreiz, viel preiszugeben. Mehrere Fälle, die vor Gericht verhandelt werden, lehnen die Einwände der Anbieter gegen die faire Nutzung ab und argumentieren, dass Text-zu-Bild-Tools den Stil von Künstlern ohne ausdrückliche Erlaubnis des Künstlers reproduzieren und es Benutzern ermöglichen, neue Werke zu erstellen, die den Originalen von Künstlern ähneln, für die Künstler keine Bezahlung erhalten .

Philomin würde mir nur sagen, dass AWS eine Kombination aus Erstanbieter- und lizenzierten Daten verwendet.

„Wir verfügen über eine Kombination aus proprietären Datenquellen, lizenzieren aber auch viele Daten“, sagte er. „Wir zahlen den Urheberrechtsinhabern tatsächlich Lizenzgebühren, um ihre Daten nutzen zu können, und mit mehreren von ihnen haben wir Verträge.“

Es ist detaillierter als ab November. Aber ich habe das Gefühl, dass Philomins Antwort nicht alle zufriedenstellen wird, insbesondere nicht die Content-Ersteller und KI-Ethiker, die sich für mehr Transparenz einsetzen, wenn es um das Training generativer KI-Modelle geht.

Anstelle von Transparenz gibt AWS an, weiterhin eine Entschädigungsrichtlinie anzubieten, die Kunden abdeckt, falls ein Titan-Modell wie Titan Image Generator ein möglicherweise urheberrechtlich geschütztes Schulungsbeispiel wieder ausspuckt (dh eine Spiegelkopie davon ausspuckt). (Mehrere Konkurrenten, darunter Microsoft und Google, bieten ähnliche Richtlinien für ihre Bilderzeugungsmodelle an.)

Um einer weiteren dringenden ethischen Bedrohung – Deepfakes – entgegenzuwirken, gibt AWS an, dass mit Titan Image Generator erstellte Bilder wie in der Vorschau mit einem „manipulationssicheren“ unsichtbaren Wasserzeichen versehen sein werden. Philomin sagt, dass das Wasserzeichen in der GA-Version widerstandsfähiger gegen Komprimierung und andere Bildbearbeitungen und -manipulationen gemacht wurde.

Um in weniger kontroverses Terrain vorzudringen, fragte ich Philomin, ob AWS – wie Google, OpenAI und andere – angesichts der Begeisterung für die Technologie (und der Investitionen in sie) die Videogenerierung erforscht. Philomin hat das nicht gesagt AWS war nicht… aber mehr wollte er nicht andeuten.

„Natürlich sind wir ständig auf der Suche nach den neuen Funktionen, die Kunden haben möchten, und die Videogenerierung kommt in Gesprächen mit Kunden definitiv zur Sprache“, sagte Philomin. „Ich bitte Sie, dranzubleiben.“

In einer letzten Titan-bezogenen Neuigkeit veröffentlichte AWS die zweite Generation seines Titan Embeddings-Modells, Titan Text Embeddings V2. Titan Text Embeddings V2 wandelt Text in numerische Darstellungen, sogenannte Einbettungen, um, um Such- und Personalisierungsanwendungen zu unterstützen. Das gilt auch für das Embeddings-Modell der ersten Generation – AWS behauptet jedoch, dass Titan Text Embeddings V2 insgesamt effizienter, kostengünstiger und genauer ist.

„Das Embeddings V2-Modell reduziert den Gesamtspeicher [necessary to use the model] Philomin behauptete, die Genauigkeit sei um das bis zu Vierfache gestiegen, während 97 % der Genauigkeit erhalten blieben, und übertraf damit die Leistung anderer vergleichbarer Modelle.

Wir werden sehen, ob reale Tests dies bestätigen.

tch-1-tech