OpenAI reagiert auf Kritik und verwendet standardmäßig keine Kundendaten mehr, um seine Modelle zu trainieren

Foundry von OpenAI wird es Kunden ermoeglichen dedizierte Rechenleistung zu

Da die ChatGPT- und Whisper-APIs heute Morgen eingeführt werden, ändert OpenAI die Bedingungen seiner API-Entwicklerrichtlinie, um auf die Kritik von Entwicklern – und Benutzern – einzugehen.

Ab heute sagt OpenAI, dass es keine über seine API übermittelten Daten für „Serviceverbesserungen“, einschließlich KI-Modellschulungen, verwenden wird, es sei denn, ein Kunde oder eine Organisation stimmt zu. Darüber hinaus implementiert das Unternehmen eine 30-tägige Datenaufbewahrungsrichtlinie für API-Benutzer mit Optionen für eine strengere Aufbewahrung „abhängig von den Benutzeranforderungen“ und die Vereinfachung der Bedingungen und des Dateneigentums, um deutlich zu machen, dass die Benutzer die Eingabe und Ausgabe der Modelle besitzen.

Greg Brockman, der Präsident und Vorsitzende von OpenAI, behauptet, dass einige dieser Änderungen dies nicht sind Änderungen notwendigerweise – es war schon immer so, dass OpenAI-API-Benutzer Ein- und Ausgabedaten besitzen, ob Text, Bilder oder anderes. Aber die aufkommenden rechtlichen Herausforderungen in Bezug auf generative KI und Kundenfeedback führten zu einer Neufassung der Nutzungsbedingungen, sagt er.

„Einer unserer größten Schwerpunkte war herauszufinden, wie wir super freundlich zu Entwicklern werden?“ Brockman sagte Tech in einem Videointerview. „Unsere Mission ist es, wirklich eine Plattform aufzubauen, auf der andere Unternehmen aufbauen können.“

Entwickler haben lang haben die (inzwischen veraltete) Datenverarbeitungsrichtlinie von OpenAI in Frage gestellt, die ihrer Meinung nach ein Datenschutzrisiko darstellt und es dem Unternehmen ermöglicht, von ihren Daten zu profitieren. In einem eigenen Helpdesk-ArtikelOpenAI rät davon ab, vertrauliche Informationen in Gesprächen mit ChatGPT zu teilen, da es „nicht in der Lage ist, bestimmte Eingabeaufforderungen aus zu löschen [users’ histories].“

Indem es Kunden ermöglicht, die Übermittlung ihrer Daten zu Schulungszwecken abzulehnen, und erweiterte Optionen zur Datenaufbewahrung anbietet, versucht OpenAI, die Attraktivität seiner Plattform deutlich zu erhöhen. Es strebt auch eine massive Skalierung an.

Zu diesem letzten Punkt sagt OpenAI in einer weiteren Richtlinienänderung, dass es seinen derzeitigen Überprüfungsprozess vor dem Start für Entwickler zugunsten eines weitgehend automatisierten Systems entfernen wird. Per E-Mail teilte ein Sprecher mit, dass sich das Unternehmen beim Umstieg auf das System wohlgefühlt habe, weil „die überwiegende Mehrheit der Apps während des Überprüfungsprozesses genehmigt wurde“ und weil sich die Überwachungsfunktionen des Unternehmens seit dieser Zeit im letzten Jahr „deutlich verbessert“ hätten.

„Was sich geändert hat, ist, dass wir von einem formularbasierten Vorab-Überprüfungssystem, bei dem Entwickler in einer Warteschlange darauf warten, dass ihre App-Idee im Konzept genehmigt wird, zu einem Post-hoc-Erkennungssystem übergegangen sind, bei dem wir problematische Apps durch Überwachung identifizieren und untersuchen ihren Verkehr und Ermittlungen wie gerechtfertigt “, sagte der Sprecher.

Ein automatisiertes System entlastet das Review-Personal von OpenAI. Aber es ermöglicht dem Unternehmen – zumindest theoretisch – auch, Entwickler und Apps für seine APIs in größerem Umfang zu genehmigen. OpenAI steht unter zunehmendem Druck, nach einer milliardenschweren Investition von Microsoft Gewinne zu erzielen. Das Unternehmen angeblich erwartet im Jahr 2023 200 Millionen US-Dollar zu verdienen, ein Almosen im Vergleich zu den mehr als 1 Milliarde US-Dollar, die bisher in das Startup gesteckt wurden.

tch-1-tech