Der Ofcom-Bericht kommt zu dem Schluss, dass jedes fünfte Suchergebnis nach schädlichen Inhalten „Ein-Klick-Einfallstore“ zu mehr Toxizität war

Geh rüber, Tick ​​Tack. Ofcom, die britische Regulierungsbehörde, die das nun offizielle Online Safety Act durchsetzt, bereitet sich darauf vor, ein noch größeres Ziel ins Visier zu nehmen: Suchmaschinen wie Google und Bing und die Rolle, die sie bei der Darstellung von Selbstverletzungen, Selbstmorden und anderen schädlichen Inhalten auf Knopfdruck spielen einer Schaltfläche, insbesondere für minderjährige Benutzer.

Ein von Ofcom in Auftrag gegebener und vom Network Contagion Research Institute erstellter Bericht ergab, dass große Suchmaschinen wie Google, Bing von Microsoft, DuckDuckGo, Yahoo und AOL zu „One-Click-Gateways“ zu solchen Inhalten werden, indem sie einen einfachen und schnellen Zugriff auf Webseiten und Bilder ermöglichen und Videos – wobei jedes fünfte Suchergebnis rund um grundlegende selbstverletzende Begriffe auf weitere schädliche Inhalte verweist.

Die Untersuchung ist zeitgemäß und bedeutsam, da sich der Fokus auf schädliche Online-Inhalte in letzter Zeit vor allem auf den Einfluss und die Nutzung von Walled-Garden-Social-Media-Seiten wie Instagram und anderen richtete Tick ​​Tack. Diese neue Untersuchung ist im Wesentlichen ein erster Schritt, um Ofcom dabei zu helfen, zu verstehen und Beweise dafür zu sammeln, ob eine viel größere potenzielle Bedrohung besteht, da offene Websites wie Google.com mehr als 80 Milliarden Besuche pro Monat anziehen, verglichen mit monatlich aktiven TikTok-Websites Nutzer von rund 1,7 Milliarden.

„Suchmaschinen sind oft der Ausgangspunkt für das Online-Erlebnis der Menschen, und wir befürchten, dass sie als Ein-Klick-Einfallstor zu ernsthaft schädlichen, selbstverletzenden Inhalten dienen können“, sagte Almudena Lara, Leiterin für die Entwicklung von Online-Sicherheitsrichtlinien bei Ofcom Stellungnahme. „Suchdienste müssen ihre potenziellen Risiken und die Wirksamkeit ihrer Schutzmaßnahmen – insbesondere für die Sicherheit von Kindern im Internet – vor unserer umfassenden Konsultation im Frühjahr verstehen.“

Laut Ofcom analysierten die Forscher für den Bericht rund 37.000 Ergebnislinks in diesen fünf Suchmaschinen. Sie verwendeten sowohl gebräuchliche als auch kryptischere Suchbegriffe (kryptisch, um grundlegende Überprüfungen zu umgehen) und führten absichtlich Suchvorgänge durch, bei denen die elterlichen Überprüfungstools „Sichere Suche“ deaktiviert wurden, um sowohl die grundlegendsten als auch die schlimmsten Möglichkeiten nachzuahmen, wie Menschen mit Suchmaschinen interagieren könnten -Fallszenarien.

Die Ergebnisse waren in vielerlei Hinsicht so schlimm und vernichtend, wie Sie vielleicht vermuten.

Nicht nur, dass 22 % der Suchergebnisse mit einem Klick Links zu schädlichen Inhalten lieferten (einschließlich Anleitungen für verschiedene Formen der Selbstverletzung), sondern dieser Inhalt machte auch ganze 19 % der Top-Links in den Ergebnissen aus (und 22). % der Links auf den ersten Ergebnisseiten).

Die Forscher stellten fest, dass Bildersuchen besonders schwerwiegend waren, wobei ganze 50 % dieser Suchanfragen schädliche Inhalte zurückgaben, gefolgt von Webseiten mit 28 % und Videos mit 22 %. Der Bericht kommt zu dem Schluss, dass ein Grund dafür, dass einige davon von Suchmaschinen möglicherweise nicht besser herausgefiltert werden, darin besteht, dass Algorithmen Bilder von Selbstverletzungen möglicherweise mit medizinischen und anderen legitimen Medien verwechseln.

Die kryptischen Suchbegriffe konnten auch Screening-Algorithmen besser entgehen: Dadurch war die Wahrscheinlichkeit, dass ein Benutzer auf schädliche Inhalte gelangte, sechsmal höher.

Eine Sache, die in dem Bericht nicht angesprochen wird, aber im Laufe der Zeit wahrscheinlich zu einem größeren Problem werden wird, ist die Rolle, die generative KI-Suchen in diesem Bereich spielen könnten. Bisher scheint es, dass mehr Kontrollen eingeführt werden, um zu verhindern, dass Plattformen wie ChatGPT für toxische Zwecke missbraucht werden. Die Frage wird sein, ob die Benutzer herausfinden werden, wie man damit umgeht und wozu das führen könnte.

„Wir arbeiten bereits daran, ein tiefgreifendes Verständnis der Chancen und Risiken neuer und aufkommender Technologien aufzubauen, damit Innovationen gedeihen können und gleichzeitig die Sicherheit der Benutzer gewährleistet ist. Einige Anwendungen generativer KI fallen wahrscheinlich in den Geltungsbereich des Online Safety Act und wir erwarten, dass Dienste bei der Durchführung ihrer Risikobewertung die mit ihrer Verwendung verbundenen Risiken bewerten“, sagte ein Ofcom-Sprecher gegenüber Tech.

Es ist nicht alles ein Albtraum: Etwa 22 % der Suchergebnisse wurden auch positiv als hilfreich gekennzeichnet.

Ofcom mag den Bericht nutzen, um sich einen besseren Überblick über das aktuelle Problem zu verschaffen, aber er ist auch ein frühes Signal für Suchmaschinenanbieter, worauf sie vorbereitet sein müssen. Ofcom hat bereits deutlich gemacht, dass bei der Durchsetzung des Online-Sicherheitsgesetzes vor allem Kinder im Mittelpunkt stehen werden. Im Frühjahr plant Ofcom, eine Konsultation zu seinen Verhaltenskodizes zum Schutz von Kindern einzuleiten, die darauf abzielt, „die praktischen Schritte darzulegen, die Suchdienste unternehmen können, um Kinder angemessen zu schützen“.

Dazu gehört, dass Maßnahmen ergriffen werden, um das Risiko zu minimieren, dass Kinder im gesamten Internet, auch in Suchmaschinen, auf schädliche Inhalte zu sensiblen Themen wie Selbstmord oder Essstörungen stoßen.

„Technologiefirmen, die dies nicht ernst nehmen, können damit rechnen, dass Ofcom in Zukunft entsprechende Maßnahmen gegen sie ergreift“, sagte der Ofcom-Sprecher. Dazu gehören Geldstrafen (die Ofcom nach eigenen Angaben nur als letztes Mittel einsetzen würde) und im schlimmsten Fall Gerichtsbeschlüsse, die von ISPs verlangen, den Zugang zu Diensten zu sperren, die nicht den Regeln entsprechen. Möglicherweise besteht auch die Möglichkeit einer strafrechtlichen Haftung für Führungskräfte, die Dienste beaufsichtigen, die gegen die Regeln verstoßen.

Bisher hat Google einige der Ergebnisse des Berichts und die Art und Weise, wie er seine Bemühungen charakterisiert, in Frage gestellt und behauptet, dass seine Kindersicherung einen Großteil der wichtigen Arbeit leistet, die einige dieser Ergebnisse entkräftet.

„Wir setzen uns voll und ganz für die Sicherheit der Menschen im Internet ein“, sagte ein Sprecher in einer Erklärung gegenüber Tech. „Die Studie von Ofcom spiegelt nicht die Sicherheitsvorkehrungen wider, die wir für die Google-Suche getroffen haben, und verweist auf Begriffe, die in der Suche selten verwendet werden. Unsere SafeSearch-Funktion, die schädliche und schockierende Suchergebnisse filtert, ist für Benutzer unter 18 Jahren standardmäßig aktiviert, während die SafeSearch-Unschärfeeinstellung – eine Funktion, die anstößige Bilder wie selbstverletzende Inhalte unkenntlich macht – standardmäßig für alle Konten aktiviert ist. Wir arbeiten auch eng mit Expertenorganisationen und Wohltätigkeitsorganisationen zusammen, um sicherzustellen, dass oben auf der Seite Ressourcenbereiche für Krisenhilfe angezeigt werden, wenn Nutzer die Google-Suche aufrufen, um Informationen zu Selbstmord, Selbstverletzung oder Essstörungen zu erhalten.“ Microsoft und DuckDuckGo haben bisher nicht auf eine Anfrage nach einem Kommentar geantwortet.

tch-1-tech