„Seit unserem Start von ChatGPT haben Benutzer Beiträge geteilt, die sie als politisch voreingenommen, beleidigend oder anderweitig anstößig erachten. In vielen Fällen sind wir der Meinung, dass die geäußerten Bedenken berechtigt waren und echte Einschränkungen unserer Systeme aufgedeckt haben, die wir angehen möchten. Wir haben auch ein paar Missverständnisse darüber gesehen, wie unsere Systeme und Richtlinien zusammenarbeiten, um die Ergebnisse zu formen, die Sie von ChatGPT erhalten“, heißt es im Blog.
Weiter hieß es: „Bei der Verfolgung unserer Mission setzen wir uns dafür ein, dass der Zugang zu, die Vorteile und der Einfluss auf KI und AGI weit verbreitet sind. Wir glauben, dass mindestens drei Bausteine erforderlich sind, um diese Ziele zu erreichen Kontext des Verhaltens von KI-Systemen.“ Anschließend spricht das Unternehmen über diese Bausteine:
Die „drei Bausteine“
Standardverhalten verbessern: OpenAI sagt, dass es in Forschung und Technik investiert, um sowohl eklatante als auch subtile Vorurteile bei der Reaktion von ChatGPT auf verschiedene Eingaben zu reduzieren.
Die Untersuchung wird auch die Fälle abdecken, in denen ChatGPT Ausgaben ablehnte, die es nicht sollte, sowie die Fälle, in denen es nicht ablehnt, obwohl es sollte. Das Startup betonte auch die Notwendigkeit von „unschätzbarem Benutzer-Feedback“, um weitere Verbesserungen vorzunehmen.
Definieren Sie die Werte der KI: Das Unternehmen entwickelt ein Upgrade für ChatGPT, das es Benutzern ermöglicht, sein Verhalten „von der Gesellschaft definiert“ einfach anzupassen.
„Dies bedeutet, Systemausgaben zuzulassen, mit denen andere Personen (uns selbst eingeschlossen) möglicherweise überhaupt nicht einverstanden sind. Hier das richtige Gleichgewicht zu finden, wird eine Herausforderung sein – die Anpassung auf die Spitze zu treiben, würde riskieren, böswillige Verwendungen unserer Technologie und kriecherischer KIs zu ermöglichen, die die bestehenden Überzeugungen der Menschen gedankenlos verstärken ,“ es sagte.
Öffentlicher Input zu Standardwerten: OpenAI sagte, es befinde sich in einem frühen Stadium der Pilotierung von Bemühungen, öffentliche Beiträge zu Themen wie Systemverhalten, Offenlegungsmechanismen (wie Wasserzeichen) und Bereitstellungsrichtlinien im weiteren Sinne einzuholen.
„Wir prüfen auch Partnerschaften mit externen Organisationen, um Prüfungen unserer Sicherheits- und Richtlinienbemühungen durch Dritte durchzuführen“, hieß es.