Generative KI hat das Potenzial, alles zu verändern. Es kann neue Produkte, Unternehmen, Branchen und sogar Volkswirtschaften informieren. Aber was sie anders und besser als „traditionelle“ KI macht, könnte sie auch gefährlich machen.
Seine einzigartige Fähigkeit, etwas zu erschaffen, hat völlig neue Sicherheits- und Datenschutzbedenken aufgeworfen.
Unternehmen müssen sich plötzlich neue Fragen stellen: Habe ich die Rechte an den Trainingsdaten? Zum Modell? Zu den Ausgängen? Hat das System selbst Rechte an Daten, die in der Zukunft erstellt werden? Wie werden Rechte an diesem System geschützt? Wie regele ich den Datenschutz in einem Modell mithilfe generativer KI? Die Liste geht weiter.
Es ist keine Überraschung, dass viele Unternehmen vorsichtig vorgehen. Offensichtliche Sicherheits- und Datenschutzlücken sowie die Zurückhaltung, sich auf bestehende Band-Aid-Lösungen zu verlassen, haben viele dazu veranlasst, diese Tools vollständig zu verbieten. Aber es gibt Hoffnung.
Confidential Computing – ein neuer Ansatz zur Datensicherheit, der Daten während der Nutzung schützt und die Codeintegrität gewährleistet – ist die Antwort auf die komplexeren und schwerwiegenderen Sicherheitsbedenken großer Sprachmodelle (LLMs). Es soll Unternehmen dabei helfen, die volle Leistungsfähigkeit der generativen KI zu nutzen, ohne Kompromisse bei der Sicherheit einzugehen. Bevor ich es erkläre, werfen wir zunächst einen Blick darauf, was die generative KI besonders angreifbar macht.
Generative KI ist in der Lage, die Daten eines gesamten Unternehmens oder sogar eine wissensreiche Teilmenge in ein abfragbares intelligentes Modell zu integrieren, das brandneue Ideen sofort bereitstellt. Dies hat zwar einen enormen Reiz, macht es Unternehmen aber auch extrem schwer, die Kontrolle über ihre proprietären Daten zu behalten und die sich entwickelnden gesetzlichen Anforderungen einzuhalten.
Der Schutz von Trainingsdaten und -modellen muss oberste Priorität haben; Es reicht nicht mehr aus, Felder in Datenbanken oder Zeilen in einem Formular zu verschlüsseln.
Diese Wissenskonzentration und die daraus resultierenden generativen Ergebnisse könnten ohne angemessene Datensicherheit und Vertrauenskontrolle dazu führen, dass generative KI unbeabsichtigt als Waffe für Missbrauch, Diebstahl und illegale Nutzung eingesetzt wird.
Tatsächlich speisen Mitarbeiter zunehmend vertrauliche Geschäftsdokumente, Kundendaten, Quellcodes und andere regulierte Informationen in LLMs ein. Da diese Modelle teilweise auf neue Eingaben trainiert werden, könnte dies im Falle eines Verstoßes zu erheblichen Verlusten geistigen Eigentums führen. Und wenn die Modelle selbst kompromittiert werden, könnten auch alle Inhalte durchsickern, zu deren Schutz ein Unternehmen gesetzlich oder vertraglich verpflichtet ist. Im schlimmsten Fall würde der Diebstahl eines Modells und seiner Daten es einem Konkurrenten oder einem nationalstaatlichen Akteur ermöglichen, alles zu duplizieren und diese Daten zu stehlen.
Es steht viel auf dem Spiel. Gärtner kürzlich gefunden dass 41 % der Unternehmen eine KI-Datenschutzverletzung oder einen Sicherheitsvorfall erlebt haben – und mehr als die Hälfte davon ist das Ergebnis einer Datenkompromittierung durch eine interne Partei. Das Aufkommen der generativen KI wird diese Zahlen zwangsläufig erhöhen.
Darüber hinaus müssen Unternehmen auch mit den sich entwickelnden Datenschutzbestimmungen Schritt halten, wenn sie in generative KI investieren. In allen Branchen besteht eine große Verantwortung und ein großer Anreiz, die Datenanforderungen einzuhalten. Im Gesundheitswesen beispielsweise hat die KI-gestützte personalisierte Medizin großes Potenzial, wenn es um die Verbesserung der Patientenergebnisse und der Gesamteffizienz geht. Aber Anbieter und Forscher müssen auf große Mengen sensibler Patientendaten zugreifen und damit arbeiten und gleichzeitig die Vorschriften einhalten, was ein neues Dilemma darstellt.
Um diese Herausforderungen und alle anderen, die unweigerlich auftreten werden, zu bewältigen, benötigt generative KI eine neue Sicherheitsgrundlage. Der Schutz von Trainingsdaten und -modellen muss oberste Priorität haben; Es reicht nicht mehr aus, Felder in Datenbanken oder Zeilen in einem Formular zu verschlüsseln.
In Szenarien, in denen generative KI-Ergebnisse für wichtige Entscheidungen verwendet werden, ist der Nachweis der Integrität des Codes und der Daten – und des Vertrauens, das sie vermitteln – von entscheidender Bedeutung, sowohl für die Compliance als auch für das potenziell rechtliche Haftungsmanagement. Es muss eine Möglichkeit geben, die gesamte Berechnung und den Zustand, in dem sie ausgeführt wird, lückenlos zu schützen.
Das Aufkommen der „vertraulichen“ generativen KI
Confidential Computing bietet einen einfachen, aber äußerst leistungsstarken Ausweg aus einem ansonsten scheinbar unlösbaren Problem. Beim Confidential Computing werden Daten und IP vollständig von den Infrastrukturbesitzern isoliert und nur vertrauenswürdigen Anwendungen zugänglich gemacht, die auf vertrauenswürdigen CPUs ausgeführt werden. Der Datenschutz wird durch Verschlüsselung auch während der Ausführung gewährleistet.
Datensicherheit und Datenschutz werden zu wesentlichen Eigenschaften des Cloud Computing – und zwar so sehr, dass IP und Code für den Angreifer völlig unsichtbar sind, selbst wenn ein böswilliger Angreifer Infrastrukturdaten verletzt. Dies ist perfekt für generative KI und mindert deren Sicherheits-, Datenschutz- und Angriffsrisiken.
Confidential Computing hat als bahnbrechender Faktor im Bereich Sicherheit zunehmend an Bedeutung gewonnen. Jeder große Cloud-Anbieter und Chiphersteller investiert darin Führungskräfte bei Azure, AWS und GCP verkünden alle seine Wirksamkeit. Nun könnte die gleiche Technologie, die selbst die hartnäckigsten Cloud-Verweigerer umwandelt, die Lösung sein, die der generativen KI zum sicheren Durchbruch verhilft. Führungskräfte müssen beginnen, es ernst zu nehmen und seine tiefgreifenden Auswirkungen zu verstehen.
Durch Confidential Computing erhalten Unternehmen die Gewissheit, dass generative KI-Modelle nur auf den Daten lernen, die sie nutzen möchten, und auf nichts anderem. Das Training mit privaten Datensätzen über ein Netzwerk vertrauenswürdiger Quellen in verschiedenen Clouds bietet vollständige Kontrolle und Sicherheit. Alle Informationen, ob Input oder Output, bleiben vollständig geschützt und hinter den eigenen vier Wänden eines Unternehmens.