Als Einwanderer aufgewachsen, brachte sich Cyril Gorlla das Programmieren selbst bei – und übte es wie ein Besessener.
„Ich habe den Programmierkurs meiner Mutter am Community College mit elf Jahren mit Bravour bestanden, inmitten zeitweise unterbrochener Hausanschlüsse“, sagte er gegenüber Tech.
In der High School lernte Gorlla etwas über KI und war von der Idee, seine eigenen KI-Modelle zu trainieren, so besessen, dass er seinen Laptop auseinandernahm, um die interne Kühlung zu verbessern. Diese Tüftelei führte zu einem Praktikum bei Intel während Gorllas zweitem Studienjahr, wo er sich mit der Optimierung und Interpretierbarkeit von KI-Modellen beschäftigte.
Gorllas College-Jahre fielen mit dem KI-Boom zusammen – ein Boom, bei dem Unternehmen wie OpenAI Milliarden von Dollar für ihre KI-Technologie sammelten. Gorlla glaubte, dass KI das Potenzial habe, ganze Branchen zu verändern. Aber er war auch der Meinung, dass die Sicherheitsarbeit gegenüber glänzenden neuen Produkten in den Hintergrund trete.
„Ich hatte das Gefühl, dass es einen grundlegenden Wandel in der Art und Weise geben muss, wie wir KI verstehen und trainieren“, sagte er. „Der Mangel an Sicherheit und Vertrauen in die Ergebnisse von Modellen stellt ein erhebliches Hindernis für die Einführung in Branchen wie dem Gesundheitswesen und dem Finanzwesen dar, in denen KI den größten Unterschied machen kann.“
Also brach Gorlla zusammen mit Trevor Tuttle, den er als Student kennengelernt hatte, sein Graduiertenprogramm ab, um ein Unternehmen, CTGT, zu gründen, das Organisationen dabei helfen soll, KI sinnvoller einzusetzen. CTGT hat heute im Rahmen des Startup Battlefield-Wettbewerbs einen Pitch auf der Tech Disrupt 2024 präsentiert.
„Meine Eltern glauben, dass ich zur Schule gehe“, sagte er. „Das zu lesen könnte für sie ein Schock sein.“
CTGT arbeitet mit Unternehmen zusammen, um voreingenommene Ergebnisse und Halluzinationen von Modellen zu identifizieren und zu versuchen, die Grundursache dafür anzugehen.
Es ist unmöglich, Fehler aus einem Modell vollständig auszuschließen. Aber Gorlla behauptet, dass der Prüfungsansatz von CTGT Unternehmen in die Lage versetzen kann, diese Probleme zu mildern.
„Wir legen das interne Verständnis eines Modells für Konzepte offen“, erklärte er. „Während ein Modell, das einem Benutzer sagt, er solle Kleber in ein Rezept geben, humorvoll sein mag, ist eine Antwort, die Wettbewerber empfiehlt, wenn ein Kunde nach einem Produktvergleich fragt, nicht so trivial. Es ist inakzeptabel, wenn einem Patienten Informationen aus einer klinischen Studie gegeben werden, die veraltet sind, oder wenn eine Kreditentscheidung auf der Grundlage halluzinierter Informationen getroffen wird.“
Ein aktueller Umfrage von Cnvrg stellte fest, dass Zuverlässigkeit ein Hauptanliegen von Unternehmen ist, die KI-Apps einführen. In einem separaten Studie Von Riskonnect, einem Anbieter von Risikomanagement-Software, gaben mehr als die Hälfte der Führungskräfte an, sie seien besorgt darüber, dass Mitarbeiter Entscheidungen auf der Grundlage ungenauer Informationen von KI-Tools treffen könnten.
Die Idee einer dedizierten Plattform zur Bewertung der Entscheidungsfindung eines KI-Modells ist nicht neu. TruEra und Patronus AI gehören ebenso wie Google und Microsoft zu den Startups, die Tools zur Interpretation des Modellverhaltens entwickeln.
Gorlla behauptet jedoch, dass die Techniken von CTGT leistungsfähiger seien – zum Teil, weil sie nicht auf der Schulung von „Beurteilungs“-KI zur Überwachung von Modellen in der Produktion basieren.
„Unsere mathematisch garantierte Interpretierbarkeit unterscheidet sich von aktuellen, hochmodernen Methoden, die ineffizient sind und Hunderte anderer Modelle trainieren, um Einblicke in ein Modell zu gewinnen“, sagte er. „Da sich Unternehmen zunehmend der Rechenkosten bewusst werden und Unternehmens-KI von Demos zu echten Werten übergeht, ist es für uns von entscheidender Bedeutung, Unternehmen die Möglichkeit zu geben, die Sicherheit fortschrittlicher KI rigoros zu testen, ohne zusätzliche Modelle zu trainieren oder andere Modelle als Prüfer einzusetzen.“ ”
Um potenziellen Kunden die Angst vor Datenlecks zu nehmen, bietet CTGT zusätzlich zu einem verwalteten Plan eine On-Premise-Option an. Für beide wird die gleiche Jahresgebühr erhoben.
„Wir haben keinen Zugriff auf die Daten der Kunden, sodass sie die volle Kontrolle darüber haben, wie und wo sie verwendet werden“, sagte Gorlla.
CTGT, ein Absolvent der Charakterlabore accelerator wird von den ehemaligen GV-Partnern Jake Knapp und John Zeratsky (Mitbegründer von Character VC), Mark Cuban und Zapier-Mitbegründer Mike Knoop unterstützt.
„KI, die ihre Argumentation nicht erklären kann, ist für viele Bereiche, in denen komplexe Regeln und Anforderungen gelten, nicht intelligent genug“, sagte Cuban in einer Erklärung. „Ich habe in CTGT investiert, weil es dieses Problem löst. Noch wichtiger ist, dass wir Ergebnisse bei unserem eigenen Einsatz von KI sehen.“
Und obwohl CTGT noch in einem frühen Stadium ist, hat es mehrere Kunden, darunter drei namentlich nicht genannte Fortune-10-Marken. Gorlla sagt, dass CTGT mit einem dieser Unternehmen zusammengearbeitet hat, um Verzerrungen in ihrem Gesichtserkennungsalgorithmus zu minimieren.
„Wir haben im Modell eine Verzerrung festgestellt, die sich zu sehr auf Haare und Kleidung konzentriert, um Vorhersagen treffen zu können“, sagte er. „Unsere Plattform lieferte den Praktikern sofortige Einblicke ohne das Rätselraten und die Zeitverschwendung herkömmlicher Interpretationsmethoden.“
Der Schwerpunkt von CTGT wird in den kommenden Monaten auf dem Ausbau seines Ingenieurteams (im Moment sind es nur Gorlla und Tuttle) und der Verfeinerung seiner Plattform liegen.
Sollte es CTGT gelingen, im aufstrebenden Markt für KI-Interpretierbarkeit Fuß zu fassen, könnte dies tatsächlich lukrativ sein. Analyseunternehmen Markets and Markets Projekte dass „erklärbare KI“ als Sektor bis 2028 einen Wert von 16,2 Milliarden US-Dollar haben könnte.
„Die Modellgröße ist weitaus größer Moores Gesetz und die Fortschritte bei KI-Trainingschips“, sagte Gorlla. „Das bedeutet, dass wir uns auf ein grundlegendes Verständnis der KI konzentrieren müssen – um sowohl mit der Ineffizienz als auch der zunehmenden Komplexität von Modellentscheidungen klarzukommen.“