Apple: Lesen Sie, was Apple dazu sagt, iCloud-Fotos nicht zu scannen

Apple Lesen Sie was Apple dazu sagt iCloud Fotos nicht zu
iPhone-Hersteller Apfel kündigte seine Pläne an, im August 2021 drei neue Kindersicherheitsfunktionen einzuführen. Zu diesen Funktionen gehörte ein System zur Erkennung bekannter Bilder von Material zum sexuellen Missbrauch von Kindern (CSAM), die in „iCloud-Fotos“ gespeichert sind, a Kommunikationssicherheit Option, die sexuell eindeutige Fotos in der Nachrichten-App und Ressourcen zur Ausbeutung von Kindern verwischt Siri.
Im Dezember 2021 führte Apple zusammen mit iOS 15.2 die Kommunikationssicherheitsfunktion in den USA ein. Die Funktion wurde später auf andere Regionen ausgeweitet, darunter Großbritannien, Kanada, Australien und Neuseeland. Das Unternehmen stellte auch Siri‌-Ressourcen zur Verfügung, die CSAM-Erkennungsfunktion wurde jedoch nie eingeführt.
Laut einem Bericht von Wired hat der in Cupertino ansässige Technologieriese eine neue Erklärung abgegeben, in der er erklärt, warum die CSAM-Funktion nicht übernommen wurde. Die Reaktion kommt, als die Kindersicherheitsgruppe Heat Initiative Apple dazu auffordert, CSAM zu „erkennen, zu melden und zu entfernen“. iCloud und mehr Tools anbieten, mit denen Benutzer solche Inhalte dem Unternehmen melden können.
Lesen Sie, was Apple über die CSAM-Erkennungsfunktion zu sagen hat
„Materialien über sexuellen Missbrauch von Kindern sind abscheulich und wir setzen uns dafür ein, die Kette der Nötigung und Einflussnahme zu durchbrechen, die Kinder dafür anfällig macht.“ Erik Neuenschwander, Apples Direktor für Benutzerdatenschutz und Kindersicherheit, schrieb in der Antwort des Unternehmens auf die Heat Initiative. Er fügte jedoch hinzu, dass das Unternehmen nach der Zusammenarbeit mit einer Reihe von Datenschutz- und Sicherheitsforschern, Gruppen für digitale Rechte und Befürwortern der Kindersicherheit zu dem Schluss gekommen sei, dass es mit der Entwicklung eines CSAM-Scanmechanismus nicht fortfahren könne, selbst wenn dieser speziell zum Schutz der Privatsphäre entwickelt worden sei .
„Das Scannen der privat gespeicherten iCloud-Daten jedes Benutzers würde neue Bedrohungsvektoren schaffen, die Datendiebe finden und ausnutzen könnten“, schrieb Neuenschwander. „Es würde auch das Potenzial für unbeabsichtigte Folgen mit sich bringen. Das Scannen nach einem Inhaltstyp öffnet beispielsweise die Tür für eine Massenüberwachung und könnte den Wunsch wecken, andere verschlüsselte Nachrichtensysteme über Inhaltstypen hinweg zu durchsuchen.“
Warum Apple seine CSAM-Erkennungspläne geändert hat
Zuvor hatte Apple angekündigt, dass die CSAM-Erkennungsfunktion bis Ende 2021 in einem Update auf iOS 15 und iPadOS 15 enthalten sein werde. Die Einführung dieser Funktion wurde jedoch später aufgrund von „Feedback von Kunden, Interessengruppen, Forscher und andere.

Die CSAM-Erkennungsfunktion wurde auch von einer langen Liste von Einzelpersonen und Organisationen kritisiert. Hierzu zählen auch Sicherheitsforscher, die Electronic Frontier Foundation (EFF), Politiker, politische Gruppen, Universitätsforscher und sogar einige Apple-Mitarbeiter.
Apple steht in Großbritannien vor einem „Verschlüsselungsproblem“.
Neben dem Problem der CSAM-Erkennung führt Apple auch eine Verschlüsselungsdebatte mit der britischen Regierung. Das Land plant eine Änderung der Überwachungsgesetze. Dieses Gesetz verpflichtet Technologieunternehmen, Sicherheitsfunktionen wie die Ende-zu-Ende-Verschlüsselung zu deaktivieren, ohne die Öffentlichkeit darüber zu informieren. Apple hat davor gewarnt, Dienste wie FaceTime und andere einzustellen iMessage im Vereinigten Königreich, wenn das Gesetz in seiner jetzigen Form verabschiedet wird.

toi-tech