Geben Sie nichts in Gemini, Googles Familie von GenAI-Apps, ein, das belastend ist – oder von dem Sie nicht möchten, dass jemand anderes es sieht.
Das ist der PSA (sozusagen) heute von Google, der in einem neuen Support-Dokument beschreibt die Art und Weise, wie das Unternehmen Daten von Benutzern seiner Gemini-Chatbot-Apps für das Web, Android und iOS sammelt.
Google stellt fest, dass menschliche Kommentatoren routinemäßig Gespräche mit Zwillingen lesen, kennzeichnen und verarbeiten – auch wenn diese von Google-Konten „getrennt“ sind –, um den Dienst zu verbessern. (Es ist nicht klar, ob diese Annotatoren intern oder ausgelagert sind könnte im Hinblick auf die Datensicherheit von Bedeutung sein; Google sagt das nicht.) Diese Konversationen werden bis zu drei Jahre lang gespeichert, zusammen mit „zugehörigen Daten“ wie den Sprachen und Geräten, die der Nutzer verwendet hat, und seinem Standort.
Jetzt bietet Google den Nutzern die Möglichkeit manche Kontrolle darüber, welche für Gemini relevanten Daten gespeichert werden – und wie.
Durch das Deaktivieren der Gemini-Apps-Aktivität im Google-Dashboard „Meine Aktivitäten“ (standardmäßig aktiviert) wird verhindert, dass zukünftige Gespräche mit Gemini zur Überprüfung in einem Google-Konto gespeichert werden (was bedeutet, dass das Dreijahresfenster nicht gilt). Einzelne Aufforderungen und Gespräche mit Gemini können unterdessen aus dem Gemini Apps-Aktivitätsbildschirm gelöscht werden.
Aber Google sagt, dass Gemini-Konversationen auch bei deaktivierter Gemini-Apps-Aktivität bis zu 72 Stunden lang in einem Google-Konto gespeichert werden, um „die Sicherheit von Gemini-Apps zu gewährleisten und Gemini-Apps zu verbessern“.
„Bitte geben Sie in Ihren Gesprächen keine vertraulichen Informationen oder Daten ein, von denen Sie nicht möchten, dass ein Rezensent sie sieht oder dass Google sie zur Verbesserung unserer Produkte, Dienstleistungen und maschinellen Lerntechnologien verwendet“, schreibt Google.
Fairerweise muss man sagen, dass sich die GenAI-Datenerfassungs- und -speicherungsrichtlinien von Google nicht allzu sehr von denen seiner Konkurrenten unterscheiden. OpenAI speichert beispielsweise alle Chats mit ChatGPT 30 Tage lang, unabhängig davon, ob die Konversationsverlaufsfunktion von ChatGPT ausgeschaltet ist, außer in Fällen, in denen ein Benutzer einen Unternehmensplan mit einer benutzerdefinierten Datenaufbewahrungsrichtlinie abonniert hat.
Die Richtlinien von Google verdeutlichen jedoch die Herausforderungen, die mit der Balance zwischen Datenschutz und der Entwicklung von GenAI-Modellen einhergehen, die sich auf Benutzerdaten stützen, um sich selbst zu verbessern.
Die liberalen GenAI-Richtlinien zur Datenaufbewahrung haben in jüngster Vergangenheit dazu geführt, dass Anbieter mit den Aufsichtsbehörden in Konflikt geraten sind.
Letzten Sommer hat die FTC angefordert Detaillierte Informationen von OpenAI darüber, wie das Unternehmen die zum Training seiner Modelle verwendeten Daten, einschließlich Verbraucherdaten, überprüft und wie diese Daten geschützt sind, wenn Dritte auf sie zugreifen. Im Ausland erklärte Italiens Datenschutzbehörde, die italienische Datenschutzbehörde, dass OpenAI eine „Rechtsgrundlage“ für die Massenerfassung und -speicherung personenbezogener Daten zum Trainieren seiner GenAI-Modelle fehle.
Mit der zunehmenden Verbreitung von GenAI-Tools werden Unternehmen immer misstrauischer gegenüber den Datenschutzrisiken.
Ein kürzlich Umfrage von Cisco hat herausgefunden, dass 63 % der Unternehmen Einschränkungen hinsichtlich der Dateneingabe in GenAI-Tools festgelegt haben, während 27 % GenAI insgesamt verboten haben. Dieselbe Umfrage ergab, dass 45 % der Mitarbeiter „problematische“ Daten in GenAI-Tools eingegeben haben, darunter Mitarbeiterinformationen und nicht öffentliche Dateien über ihren Arbeitgeber.
OpenAI, Microsoft, Amazon, Google und andere bieten GenAI-Produkte an, die sich ausdrücklich an Unternehmen richten nicht Daten für einen beliebigen Zeitraum aufzubewahren, sei es für das Modelltraining oder für andere Zwecke. Allerdings ziehen die Verbraucher – wie so oft – den Kürzeren.