Wir sprechen alle über die Geschäftsvorteile, die sich aus der Verwendung großer Sprachmodelle ergeben, aber es gibt viele bekannte Probleme mit diesen Modellen, und die Suche nach Möglichkeiten, die Antworten, die ein Modell geben könnte, einzuschränken, ist eine Möglichkeit, diese leistungsstarken Technologien etwas zu kontrollieren. Heute kündigte AWS-CEO Adam Selipsky auf der AWS re:Invent in Las Vegas Guardrails für Amazon Bedrock an.
„Mit Guardrails für Amazon Bedrock können Sie konsequent Sicherheitsmaßnahmen implementieren, um relevante und sichere Benutzererlebnisse zu bieten, die mit den Richtlinien und Grundsätzen Ihres Unternehmens übereinstimmen“, schrieb das Unternehmen ein Blogbeitrag heute Morgen.
Mit dem neuen Tool können Unternehmen die Arten von Sprache definieren und einschränken, die ein Modell verwenden kann. Wenn also jemand eine Frage stellt, die für den von Ihnen erstellten Bot nicht wirklich relevant ist, wird diese nicht beantwortet, sondern eine sehr überzeugende, aber falsche Antwort geliefert , oder schlimmer noch – etwas, das anstößig ist und einer Marke schaden könnte.
Auf der einfachsten Ebene können Sie mit dem Unternehmen Themen definieren, die außerhalb der Grenzen des Modells liegen, sodass irrelevante Fragen einfach nicht beantwortet werden. Als Beispiel verwendet Amazon ein Finanzdienstleistungsunternehmen, das möglicherweise vermeiden möchte, dass der Bot Anlageberatung gibt, aus Angst, er könnte unangemessene Empfehlungen abgeben, die die Kunden möglicherweise ernst nehmen. Ein Szenario wie dieses könnte wie folgt funktionieren:
„Ich gebe ein abgelehntes Thema mit dem Namen ‚Anlageberatung‘ an und gebe eine Beschreibung in natürlicher Sprache an, wie zum Beispiel ‚Anlageberatung bezieht sich auf Anfragen, Anleitungen oder Empfehlungen bezüglich der Verwaltung oder Allokation von Geldern oder Vermögenswerten mit dem Ziel, Renditen zu erzielen oder zu erzielen.“ spezifische finanzielle Ziele.’“
Darüber hinaus können Sie bestimmte Wörter und Phrasen herausfiltern, um alle Arten von Inhalten zu entfernen, die anstößig sein könnten, und gleichzeitig Filterstärken auf verschiedene Wörter und Phrasen anwenden, um dem Modell mitzuteilen, dass dies außerhalb der Grenzen liegt. Schließlich können Sie PII-Daten herausfiltern, um private Daten aus den Modellantworten herauszuhalten.
Laut Ray Wang, Gründer und Hauptanalyst bei Constellation Research, könnte dies ein wichtiges Tool für Entwickler sein, die mit LLMs arbeiten, um unerwünschte Reaktionen zu kontrollieren. „Eine der größten Herausforderungen besteht darin, eine verantwortungsvolle KI zu schaffen, die sicher und einfach zu bedienen ist. Inhaltsfilterung und PII waren zwei der fünf größten Probleme [developers face]“, sagte Wang gegenüber Tech. „Die Fähigkeit zur Transparenz, Erklärbarkeit und Umkehrbarkeit ist ebenfalls von entscheidender Bedeutung“, sagte er.
Die Leitplankenfunktion wurde heute in der Vorschau angekündigt. Es wird voraussichtlich irgendwann im nächsten Jahr für alle Kunden verfügbar sein.