Google zahlt für das Auffinden von Sicherheitsproblemen in generativen KI-Produkten und -Diensten

Generative KI bereitet Regierungen und Regulierungsbehörden Sorgen. Voreingenommenheit, Fehlinformationen und Cyberkriminalität gehören zu den zahlreichen anderen „Bedrohungen“, die von großen Sprachmodellen (LLMs) ausgehen. Um Benutzer vor hochentwickelten KI-Verbrechen zu schützen, Google hat die Ausweitung seines Bug-Bounty-Programms angekündigt. „Heute erweitern wir unser Vulnerability Rewards Program (VRP), um Angriffsszenarien speziell für generative KI zu belohnen. Wir glauben, dass dies die Forschung rund um die Sicherheit von KI anregen und potenzielle Probleme ans Licht bringen wird, die die KI letztendlich für alle sicherer machen werden“, sagte Google.

Was ist VRP?
Googles VRP ist ein Programm, mit dem Sicherheitsforscher außerhalb des Unternehmens belohnt werden, denen es gelingt, Schwachstellen, Bugs oder Mängel zu erkennen, die potenziell für Online-Angriffe auf Benutzer genutzt werden können. Angesichts der zunehmenden Akzeptanz von KI wird sich VRP laut Google nun auch auf KI-spezifische Angriffe und Möglichkeiten für böswillige Absichten konzentrieren. Dies steht im Einklang mit der Zusammenarbeit des Unternehmens mit anderen führenden KI-Unternehmen Anfang des Jahres im Weißen Haus, um die Entdeckung von Schwachstellen in KI-Systemen voranzutreiben.Aktualisierte Richtlinien für VRP
Das Unternehmen hat außerdem aktualisierte Richtlinien veröffentlicht, in denen detailliert beschrieben wird, welche Entdeckungen für Prämien in Frage kommen und welche nicht in den Geltungsbereich fallen. Wenn beispielsweise ein Sicherheitsforscher feststellt, dass die Extraktion von Trainingsdaten, bei der private, sensible Informationen preisgegeben werden, in den Geltungsbereich fällt, diese aber nur öffentliche, nicht sensible Daten anzeigt, ist dies nicht für eine Belohnung in Frage. Google sagte, dass es Sicherheitsforschern letztes Jahr 12 Millionen US-Dollar für die Entdeckung von Fehlern gegeben habe.„Generative KI wirft neue und andere Bedenken auf als herkömmliche digitale Sicherheit, wie etwa das Potenzial für unfaire Voreingenommenheit, Modellmanipulation oder Fehlinterpretationen von Daten (Halluzinationen)“, sagte Google und fügte hinzu, dass man daran arbeite, diese potenziellen Risiken besser zu antizipieren und zu testen.Google „erweitert außerdem seine Open-Source-Sicherheitsarbeit, um Informationen über die Sicherheit der KI-Lieferkette allgemein auffindbar und überprüfbar zu machen.“



Ende des Artikels

gn-tech