OpenAI Kürzlich hat das Land seine Schritte zur Bekämpfung bekanntgegeben Fehlinformationen In 2024, das in vielen Ländern, darunter den USA und Indien, ein Wahljahr ist. Das Unternehmen erläuterte ausführlich seinen Ansatz, den Menschen die Nutzung seiner Plattform zu ermöglichen, und hob die Sicherheitsarbeit hervor, indem es genaue Abstimmungsinformationen erhöhte, maßvolle Richtlinien durchsetzte und die Transparenz verbesserte. Als Teil davon hat OpenAI Berichten zufolge den Entwickler eines Bots gesperrt, der einen US-Politiker nachahmte.
Die Washington Post berichtete, dass OpenAI ausgesetzt der Account des Start-ups Delphi, das mit der Entwicklung von Dean.Bot beauftragt worden war, der über eine Website in Echtzeit mit Wählern kommunizieren konnte. Diese Aussetzung ist der erste bekannte Fall, in dem OpenAI den Einsatz von KI in politischen Kampagnen eingeschränkt hat.
Was OpenAI zu sagen hat
Ein Sprecher von OpenAI sagte, dass jeder, der mit den vom Unternehmen bereitgestellten Tools baut, dessen Nutzungsrichtlinien befolgen muss.
„Jeder, der mit unseren Tools baut, muss unsere Nutzungsrichtlinien befolgen. Wir haben kürzlich ein Entwicklerkonto entfernt, das wissentlich gegen unsere API-Nutzungsrichtlinien verstößt, die politische Kampagnen oder die Nachahmung einer Person ohne Zustimmung nicht zulassen“, zitierte Axios einen Sprecher von OpenAI.
Der ChatGPT-Hersteller sagte zuvor, dass die Verhinderung des Missbrauchs seiner Tools eine der wichtigsten Aufgaben sei und das Unternehmen daran arbeiten werde, „relevanten Missbrauch zu antizipieren und zu verhindern – wie etwa irreführende „Deepfakes“, skalierte Einflussnahmeoperationen oder Chatbots, die sich als Kandidaten ausgeben“.
Nicht nur für Chatbots, die sprechen können, kündigte OpenAi auch Einschränkungen für DALL-E-Benutzer an. Das Unternehmen sagte, dass es mit einem Provenienzklassifikator experimentiere – einem neuen Tool zur Erkennung von Bildern, die von DALL·E generiert wurden.
„Unsere internen Tests haben vielversprechende erste Ergebnisse gezeigt, selbst wenn die Bilder häufigen Modifikationen unterzogen wurden. Wir planen, es bald unserer ersten Gruppe von Testern – darunter Journalisten, Plattformen und Forscher – für Feedback zur Verfügung zu stellen“, sagte das Unternehmen.
Die Washington Post berichtete, dass OpenAI ausgesetzt der Account des Start-ups Delphi, das mit der Entwicklung von Dean.Bot beauftragt worden war, der über eine Website in Echtzeit mit Wählern kommunizieren konnte. Diese Aussetzung ist der erste bekannte Fall, in dem OpenAI den Einsatz von KI in politischen Kampagnen eingeschränkt hat.
Was OpenAI zu sagen hat
Ein Sprecher von OpenAI sagte, dass jeder, der mit den vom Unternehmen bereitgestellten Tools baut, dessen Nutzungsrichtlinien befolgen muss.
„Jeder, der mit unseren Tools baut, muss unsere Nutzungsrichtlinien befolgen. Wir haben kürzlich ein Entwicklerkonto entfernt, das wissentlich gegen unsere API-Nutzungsrichtlinien verstößt, die politische Kampagnen oder die Nachahmung einer Person ohne Zustimmung nicht zulassen“, zitierte Axios einen Sprecher von OpenAI.
Der ChatGPT-Hersteller sagte zuvor, dass die Verhinderung des Missbrauchs seiner Tools eine der wichtigsten Aufgaben sei und das Unternehmen daran arbeiten werde, „relevanten Missbrauch zu antizipieren und zu verhindern – wie etwa irreführende „Deepfakes“, skalierte Einflussnahmeoperationen oder Chatbots, die sich als Kandidaten ausgeben“.
Nicht nur für Chatbots, die sprechen können, kündigte OpenAi auch Einschränkungen für DALL-E-Benutzer an. Das Unternehmen sagte, dass es mit einem Provenienzklassifikator experimentiere – einem neuen Tool zur Erkennung von Bildern, die von DALL·E generiert wurden.
„Unsere internen Tests haben vielversprechende erste Ergebnisse gezeigt, selbst wenn die Bilder häufigen Modifikationen unterzogen wurden. Wir planen, es bald unserer ersten Gruppe von Testern – darunter Journalisten, Plattformen und Forscher – für Feedback zur Verfügung zu stellen“, sagte das Unternehmen.