WitnessAI baut Leitplanken für generative KI-Modelle

Generative KI erfindet Dinge. Es kann voreingenommen sein. Manchmal spuckt es giftigen Text aus. Kann es also „sicher“ sein?

Rick Caccia, der CEO von ZeugeAIglaubt, dass es das kann.

„Die Sicherung von KI-Modellen ist ein echtes Problem, und es ist eines, das besonders für KI-Forscher interessant ist, aber es ist etwas anderes als die Sicherung der Nutzung“, sagte Caccia, früher SVP für Marketing bei Palo Alto Networks, in einem Interview mit Tech. „Ich stelle es mir wie bei einem Sportwagen vor: Ein stärkerer Motor – also ein stärkeres Modell – bringt einem nichts, wenn man nicht auch gute Bremsen und eine gute Lenkung hat. Die Steuerung ist für schnelles Fahren genauso wichtig wie der Motor.“

Es besteht sicherlich eine Nachfrage nach solchen Kontrollen im Unternehmen, das zwar vorsichtig optimistisch hinsichtlich des produktivitätssteigernden Potenzials der generativen KI ist, aber Bedenken hinsichtlich der Grenzen der Technologie hat.

51 Prozent der CEOs stellen Positionen im Bereich der generativen KI ein, die es bis zu diesem Jahr noch nicht gab, etwa bei IBM Umfrage findet. Laut Riskonnect geben jedoch nur 9 % der Unternehmen an, dass sie bereit sind, Bedrohungen zu bewältigen – einschließlich Bedrohungen in Bezug auf Privatsphäre und geistiges Eigentum –, die sich aus ihrem Einsatz generativer KI ergeben Umfrage.

Die Plattform von WitnessAI fängt Aktivitäten zwischen Mitarbeitern und den benutzerdefinierten generativen KI-Modellen ab, die ihr Arbeitgeber verwendet – keine Modelle, die hinter einer API wie GPT-4 von OpenAI hinterlegt sind, sondern eher im Sinne von Llama 3 von Meta – und wendet risikomindernde Richtlinien und Schutzmaßnahmen an.

„Eines der Versprechen der Unternehmens-KI besteht darin, dass sie den Mitarbeitern Unternehmensdaten zugänglich macht und demokratisiert, damit diese ihre Arbeit besser erledigen können. Aber all diese sensiblen Daten freigeben zu gut –– oder dass es ausläuft oder gestohlen wird – ist ein Problem.“

WitnessAI verkauft den Zugang zu mehreren Modulen, die sich jeweils auf die Bewältigung einer anderen Form generativer KI-Risiken konzentrieren. Eine Möglichkeit ermöglicht es Organisationen, Regeln zu implementieren, um zu verhindern, dass Mitarbeiter bestimmter Teams generative KI-gestützte Tools auf eine Art und Weise verwenden, die sie nicht verwenden sollten (z. B. indem sie nach Ergebnisberichten vor der Veröffentlichung fragen oder interne Codebasen einfügen). Ein anderer schwärzt proprietäre und sensible Informationen aus den an Modelle gesendeten Eingabeaufforderungen und implementiert Techniken, um Modelle vor Angriffen zu schützen, die sie dazu zwingen könnten, vom Skript abzuweichen.

„Wir glauben, dass der beste Weg, Unternehmen zu helfen, darin besteht, das Problem auf eine sinnvolle Weise zu definieren – zum Beispiel durch die sichere Einführung von KI – und dann eine Lösung zu verkaufen, die das Problem angeht“, sagte Caccia. „Der CISO möchte das Unternehmen schützen, und WitnessAI hilft ihm dabei, indem es den Datenschutz gewährleistet, eine sofortige Einschleusung verhindert und identitätsbasierte Richtlinien durchsetzt. Der Chief Privacy Officer möchte sicherstellen, dass bestehende und künftige Vorschriften eingehalten werden, und wir geben ihnen Sichtbarkeit und eine Möglichkeit, über Aktivitäten und Risiken zu berichten.“

Aus Sicht des Datenschutzes gibt es jedoch eine knifflige Sache bei WitnessAI: Alle Daten durchlaufen die Plattform, bevor sie ein Modell erreichen. Das Unternehmen ist diesbezüglich transparent und bietet sogar Tools an, um zu überwachen, auf welche Modelle Mitarbeiter zugreifen, welche Fragen sie den Modellen stellen und welche Antworten sie erhalten. Es könnte jedoch eigene Datenschutzrisiken mit sich bringen.

Auf Fragen zur Datenschutzrichtlinie von WitnessAI antwortete Caccia, dass die Plattform „isoliert“ und verschlüsselt sei, um zu verhindern, dass Kundengeheimnisse an die Öffentlichkeit gelangen.

„Wir haben eine Plattform mit Millisekunden-Latenz und integrierter regulatorischer Trennung entwickelt – ein einzigartiges, isoliertes Design zum Schutz der KI-Aktivitäten von Unternehmen auf eine Weise, die sich grundlegend von den üblichen Multi-Tenant-Software-as-a-Service-Diensten unterscheidet“, sagte er. „Wir erstellen für jeden Kunden eine separate Instanz unserer Plattform, die mit seinen Schlüsseln verschlüsselt ist. Ihre KI-Aktivitätsdaten sind für sie isoliert – wir können sie nicht sehen.“

Vielleicht zerstreut das die Ängste der Kunden. Was die Arbeiter betrifft besorgt Was das Überwachungspotenzial der WitnessAI-Plattform angeht, ist das eine härtere Entscheidung.

Umfragen zeigen, dass die Menschen es im Allgemeinen nicht schätzen, wenn ihre Aktivitäten am Arbeitsplatz überwacht werden, egal aus welchem ​​Grund, und glauben, dass sich dies negativ auf die Unternehmensmoral auswirkt. Fast ein Drittel der Befragten einer Forbes-Studie Umfrage sagten, sie würden vielleicht darüber nachdenken, ihren Job aufzugeben, wenn ihr Arbeitgeber ihre Online-Aktivitäten und Kommunikation überwachen würde.

Caccia behauptet jedoch, dass das Interesse an der Plattform von WitnessAI groß war und bleibt, da sich eine Pipeline von 25 frühen Unternehmensanwendern in der Proof-of-Concept-Phase befindet. (Es wird erst im dritten Quartal allgemein verfügbar sein.) Und als Vertrauensbeweis von VCs hat WitnessAI 27,5 Millionen US-Dollar von Ballistic Ventures (das WitnessAI gegründet hat) und GV, Googles Corporate-Venture-Arm, eingesammelt.

Es ist geplant, die Finanzierungstranche für den Ausbau des 18-köpfigen WitnessAI-Teams bis zum Jahresende auf 40 bereitzustellen. Wachstum wird sicherlich der Schlüssel sein, um die Konkurrenten von WitnessAI im aufstrebenden Bereich für Modell-Compliance- und Governance-Lösungen zurückzuschlagen, nicht nur von Technologiegiganten wie AWS, Google und Salesforce, sondern auch von Start-ups wie CalypsoAI.

„Wir haben unseren Plan aufgestellt, bis weit ins Jahr 2026 hineinzukommen, selbst wenn wir überhaupt keine Verkäufe hatten, aber wir haben bereits fast das Zwanzigfache der Pipeline, die wir brauchen, um unsere Umsatzziele in diesem Jahr zu erreichen“, sagte Caccia. „Dies ist unsere erste Finanzierungsrunde und unser öffentlicher Start, aber die sichere Aktivierung und Nutzung von KI ist ein neuer Bereich, und alle unsere Funktionen entwickeln sich mit diesem neuen Markt.“

Wir starten einen KI-Newsletter! Melden Sie sich hier an, damit er ab dem 5. Juni in Ihrem Posteingang landet.

tch-1-tech