LinkedIn hat aufgehört, Daten britischer Benutzer für KI zu erfassen

Die britische Datenschutzbehörde hat bestätigt, dass das Microsoft-Unternehmen LinkedIn die Verarbeitung von Benutzerdaten für das Training von KI-Modellen vorerst eingestellt hat.

Steven Almond, Exekutivdirektor für Regulierungsrisiken beim Information Commissioner’s Office, schrieb am Freitag in einer Erklärung: „Wir freuen uns, dass LinkedIn die Bedenken berücksichtigt hat, die wir hinsichtlich seines Ansatzes zur Schulung generativer KI-Modelle mit Informationen über seine britischen Benutzer geäußert haben. Wir begrüßen die Bestätigung von LinkedIn, dass es dieses Modelltraining bis zur weiteren Zusammenarbeit mit dem ICO ausgesetzt hat.“

Scharfsichtige Datenschutzexperten hatten bereits eine ruhige Bearbeitung entdeckt LinkedIn hat seine Datenschutzrichtlinie angepasst, nachdem es zu heftigen Reaktionen auf die Erfassung personenbezogener Daten zum Trainieren künstlicher Intelligenzen gekommen war. Das Unternehmen hat Großbritannien der Liste der europäischen Regionen hinzugefügt, in denen keine Opt-out-Möglichkeit besteht, da das Unternehmen nach eigenen Angaben keine Daten lokaler Benutzer zu diesem Zweck verarbeitet.

„Derzeit ermöglichen wir kein Training für generative KI auf Basis von Mitgliederdaten aus dem Europäischen Wirtschaftsraum, der Schweiz und dem Vereinigten Königreich und werden den Mitgliedern in diesen Regionen diese Einstellung bis auf Weiteres nicht zur Verfügung stellen“, schrieb LinkedIn-Chefjurist Blake Lawit in einem aktualisierten Unternehmensbericht. Blog-Beitrag ursprünglich veröffentlicht am 18. September.

Das professionelle soziale Netzwerk hatte zuvor erklärt, dass es keine Informationen von Nutzern verarbeitet, die in der Europäischen Union, dem EWR oder der Schweiz ansässig sind – wo die Datenschutz-Grundverordnung (DSGVO) des Blocks gilt. Das britische Datenschutzgesetz basiert jedoch immer noch auf dem EU-Rahmen. Als sich also herausstellte, dass LinkedIn britischen Nutzern nicht die gleiche Höflichkeit entgegenbrachte, Datenschutzexperten riefen schnell Foul.

Die britische gemeinnützige Organisation für digitale Rechte, die Open Rights Group (ORG), kanalisierte ihre Empörung über LinkedIns Vorgehen in eine neue Beschwerde an das ICO über die einwilligungsfreie Datenverarbeitung für KI. Sie kritisierte aber auch die Regulierungsbehörde, weil sie einen weiteren KI-Datendiebstahl nicht verhindert habe.

In den letzten Wochen hat Meta, der Eigentümer von Facebook und Instagram, eine frühere Aussetzung der Verarbeitung der Daten seiner eigenen lokalen Benutzer zum Trainieren seiner KIs aufgehoben und ist zur standardmäßigen Erfassung der Informationen britischer Benutzer zurückgekehrt. Das bedeutet, dass Benutzer mit Konten, die mit Großbritannien verknüpft sind, erneut aktiv widersprechen müssen, wenn sie nicht möchten, dass Meta ihre persönlichen Daten zur Bereicherung seiner Algorithmen verwendet.

Obwohl das ICO zuvor Bedenken hinsichtlich der Praktiken von Meta geäußert hatte, sah die Aufsichtsbehörde bislang tatenlos zu, wie der Ad-Tech-Riese diese Datenerfassung wieder aufnahm.

In einer am Mittwoch veröffentlichten Erklärung warnte der Rechts- und Politikbeauftragte von ORG, Mariano delli Santi, vor dem Ungleichgewicht, mächtigen Plattformen zu erlauben, mit den Informationen der Menschen zu machen, was sie wollen, solange sie irgendwo in den Einstellungen eine Opt-out-Möglichkeit verstecken. Stattdessen, argumentierte er, sollten sie verpflichtet werden, im Voraus ausdrückliche Zustimmung einzuholen.

„Das Opt-out-Modell erweist sich einmal mehr als völlig unzureichend, um unsere Rechte zu schützen: Man kann nicht erwarten, dass die Öffentlichkeit jedes einzelne Online-Unternehmen überwacht und verfolgt, das beschließt, unsere Daten zum Trainieren von KI zu verwenden“, schrieb er. „Die Opt-in-Zustimmung ist nicht nur gesetzlich vorgeschrieben, sondern eine Anforderung des gesunden Menschenverstands.“

Wir haben uns mit Fragen an das ICO und Microsoft gewandt und werden diesen Bericht aktualisieren, wenn wir eine Antwort erhalten.

tch-1-tech