Das von Google unterstützte Unternehmen Anthropic zeichnet „Verfassung“ für seinen KI-Chatbot aus

Das von Google unterstuetzte Unternehmen Anthropic zeichnet „Verfassung fuer seinen
KI-gestützte Chatbots können unvorhersehbar sein und manchmal schädliche oder illegale Inhalte generieren, was zu ständigen Bemühungen führt, solches Verhalten zu verhindern. Und es gibt nicht viel, was ihre Hersteller tun können, aber ein Unternehmen, Anthropisch, scheint herausgefunden zu haben, wie sie ihren Chatbot besser verwalten können. Alles, was es braucht, ist eine „Verfassung“.
Gegründet von ehemaligen OpenAI-Ingenieuren, Anthropic, einem KI-Startup, das von unterstützt wird Google, hat die Regeln für seine Trainingsmethode „Constitutional AI“ festgelegt. Dieser Ansatz vermittelt seinem Chatbot spezifische Werte, Claude, um Bedenken hinsichtlich Transparenz, Sicherheit und Entscheidungsfindung in KI-Systemen auszuräumen. Im Gegensatz zu anderen Methoden ist bei diesem Ansatz kein menschliches Feedback zur Bewertung der Antworten erforderlich.
In einem Blogbeitrag sagte Anthropic, dass KI-Modelle unweigerlich über Wertesysteme verfügen werden, ob beabsichtigt oder nicht. Um etwaige Mängel zu beheben, Verfassungsmäßige KI nutzt KI-Feedback, um seine Ergebnisse zu bewerten.
Die KI-Verfassung von Anthropic umfasst 58 Prinzipien, die von Quellen wie der Allgemeinen Erklärung der Menschenrechte inspiriert sind Vereinte Nationen, ApfelNutzungsbedingungen von ’s, Regeln von Google und eigene Recherchen von Anthropic. Diese Grundsätze sind hoch und zielen darauf ab, Fairness und Respekt für alle zu fördern.
Der Kern der Verfassung besteht darin, dass die KI Richtlinien befolgen muss, um Stereotypen, diskriminierende Sprache und die Erteilung medizinischer, finanzieller oder rechtlicher Ratschläge zu vermeiden. Es sollte angemessene Antworten für Kinder bieten und vermeiden, nicht-westliche Zuschauer zu beleidigen. Sie muss weniger existenziell riskanten Antworten Vorrang einräumen und darf nicht predigen.
KI-gestützte Chatbots wie GPT-4 und Barde können Texte mit lebendigen Details wiedergeben, weisen aber auch erhebliche Mängel auf. Diese generativen KI-Modelle werden häufig auf unzuverlässigen Internetquellen wie sozialen Medien trainiert, wodurch sie anfällig für Voreingenommenheit sind. Darüber hinaus kann es zu Antworten kommen, die nicht auf tatsächlichem Wissen basieren und rein imaginär sind.
Die konstitutionelle KI von Anthropic zielt darauf ab, diese Probleme anzugehen, indem sie eine Reihe von Leitprinzipien bereitstellt, damit das System fundierte Entscheidungen über den von ihm erstellten Text treffen kann. Diese Prinzipien ermutigen das Modell, Verhaltensweisen anzunehmen, die ihrer Natur nach „ungiftig“ und „hilfreich“ sind.
Wenn Anthropic ein Textgenerierungsmodell trainiert, folgen sie einer Reihe von Richtlinien in zwei Phasen. Zunächst lernt das Modell, seine Antworten zu bewerten und zu verbessern, indem es sich diese Richtlinien und relevante Beispiele ansieht. Anschließend nutzen sie das vom ersten Modell generierte Feedback zusammen mit den Richtlinien, um das endgültige Modell zu trainieren.
Das Startup glaubt, dass seine Trainingsmethode besser ist als ChatGPTDas liegt daran, dass menschliches Feedback nicht skalierbar ist und zu viel Zeit und Ressourcen erfordert. OpenAI wurde kritisiert, weil Vertragsarbeiter unterbezahlt wurden, um schädliche Daten herauszufiltern. Laut Anthropic ist Constitutional AI im Gegensatz zu OpenAI transparent und leicht zu überprüfen.
Anthropic möchte einen fortschrittlichen Algorithmus für das Selbstlernen von KI entwickeln. Damit lassen sich virtuelle Assistenten erstellen, die beispielsweise E-Mails beantworten, recherchieren und Kunst und Bücher erstellen können. Es gibt bereits Modelle wie GPT-4 und LaMDA, die diese Technologie nutzen.

toi-tech