„Seit unserem Start von ChatGPT haben Benutzer Ergebnisse geteilt, die sie als politisch voreingenommen, beleidigend oder anderweitig anstößig erachten. In vielen Fällen sind wir der Meinung, dass die geäußerten Bedenken berechtigt waren und echte Einschränkungen unserer Systeme aufgedeckt haben, die wir angehen möchten. “, sagte das Unternehmen in einem Blogbeitrag.
OpenAI sagte auch, dass es auch „ein paar Missverständnisse darüber gesehen hat, wie unsere Systeme und Richtlinien zusammenarbeiten, um die Ergebnisse zu formen, die Sie von ChatGPT erhalten“.
„Vorurteile sind Fehler“
In dem Blog räumte OpenAI ein, dass sich viele zu Recht Sorgen über Vorurteile bei der Gestaltung und Wirkung von KI-Systemen machen. Es fügte hinzu, dass das KI-Modell durch die verfügbaren Daten und Eingaben der Öffentlichkeit trainiert wird, die Systeme wie ChatGPT verwendet oder von ihnen betroffen ist.
„Unsere Richtlinien besagen ausdrücklich, dass Gutachter keine politische Gruppe bevorzugen sollten. Vorurteile, die sich dennoch aus dem oben beschriebenen Prozess ergeben können, sind Fehler, keine Funktionen“, sagte das Startup. Es heißt weiter, dass das Unternehmen der Überzeugung sei, dass Technologieunternehmen für die Erstellung von Richtlinien verantwortlich sein müssen, die einer Überprüfung standhalten.
„Wir verpflichten uns, dieses Problem energisch anzugehen und sowohl unsere Absichten als auch unsere Fortschritte transparent zu machen“, heißt es darin.
OpenAI sagte, dass es daran arbeite, die Klarheit dieser Richtlinien zu verbessern, und basierend auf den Erkenntnissen aus der Einführung von ChatGPT den Prüfern klarere Anweisungen zu potenziellen Fallstricken und Herausforderungen im Zusammenhang mit Voreingenommenheit sowie zu kontroversen Zahlen und Themen geben werde.
Als Teil seiner Transparenzinitiativen arbeitet OpenAI auch daran, aggregierte demografische Informationen über die Prüfer „auf eine Weise zu teilen, die nicht gegen Datenschutzregeln und -normen verstößt“, da dies eine zusätzliche Quelle für potenzielle Verzerrungen bei den Systemausgaben ist.
Das Unternehmen forscht auch daran, wie der Feinabstimmungsprozess verständlicher und kontrollierbarer gestaltet werden kann.