Vor einigen Jahren lernten sich Karine Mellata und Michael Lin kennen, als sie im Fraud Engineering- und Algorithmic Risk-Team von Apple arbeiteten. Beide Ingenieure, Mellata und Lin, waren daran beteiligt, Online-Missbrauchsprobleme wie Spam, Botting, Kontosicherheit und Entwicklerbetrug für den wachsenden Kundenstamm von Apple anzugehen.
Trotz ihrer Bemühungen, neue Modelle zu entwickeln, um mit den sich entwickelnden Missbrauchsmustern Schritt zu halten, hatten Mellata und Lin das Gefühl, ins Hintertreffen zu geraten – und beim Wiederaufbau von Kernelementen ihrer Vertrauens- und Sicherheitsinfrastruktur festzustecken.
„Da die Regulierung den Teams eine stärkere Kontrolle auferlegt, um ihre eher spontanen Vertrauens- und Sicherheitsreaktionen zu zentralisieren, sahen wir eine echte Chance für uns, zur Modernisierung dieser Branche beizutragen und zum Aufbau eines sichereren Internets für alle beizutragen“, sagte Mellata gegenüber Tech in einem E-Mail-Interview. „Wir träumten von einem System, das sich auf magische Weise genauso schnell anpassen kann wie der Missbrauch selbst.“
Also gründeten Mellata und Lin gemeinsam Intrinsisch, ein Startup, dessen Ziel es ist, Sicherheitsteams die notwendigen Werkzeuge an die Hand zu geben, um missbräuchliches Verhalten an ihren Produkten zu verhindern. Intrinsic hat kürzlich 3,1 Millionen US-Dollar in einer Seed-Runde gesammelt, an der sich Urban Innovation Fund, Y Combinator, 645 Ventures und Okta beteiligten.
Die Plattform von Intrinsic ist für die Moderation von benutzer- und KI-generierten Inhalten konzipiert und stellt eine Infrastruktur bereit, die es Kunden – hauptsächlich Social-Media-Unternehmen und E-Commerce-Marktplätzen – ermöglicht, Inhalte zu erkennen und entsprechende Maßnahmen zu ergreifen, die gegen ihre Richtlinien verstoßen. Intrinsic konzentriert sich auf die Integration von Sicherheitsprodukten und orchestriert automatisch Aufgaben wie das Sperren von Benutzern und das Markieren von Inhalten zur Überprüfung.
„Intrinsic ist eine vollständig anpassbare Plattform zur Moderation von KI-Inhalten“, sagte Mellata. „Zum Beispiel kann Intrinsic einem Verlag, der Marketingmaterialien erstellt, dabei helfen, Finanzberatung zu vermeiden, die rechtliche Verpflichtungen nach sich zieht. Oder wir können Marktplätzen dabei helfen, Angebote wie Schlagringe zu erkennen, die in Kalifornien, nicht aber in Texas illegal sind.“
Mellata argumentiert, dass es für diese Art von differenzierten Kategorien keine Standardklassifikatoren gibt und dass selbst ein gut ausgestattetes Vertrauens- und Sicherheitsteam mehrere Wochen oder sogar Monate Entwicklungszeit benötigen würde, um neue automatisierte Erkennungskategorien hinzuzufügen -Haus.
Auf die Frage nach konkurrierenden Plattformen wie Spectrum Labs, Azure und Cinder (die fast ein direkter Konkurrent sind) sagt Mellata, dass er Intrinsic aufgrund seiner (1) Erklärbarkeit und (2) stark erweiterten Tools von anderen abhebt. Er erklärte, dass Intrinsic den Kunden die Möglichkeit gibt, es nach Fehlern zu „fragen“, die es bei Entscheidungen zur Inhaltsmoderation macht, und Erklärungen zu seiner Begründung bietet. Die Plattform beherbergt außerdem manuelle Überprüfungs- und Kennzeichnungstools, mit denen Kunden Moderationsmodelle anhand ihrer eigenen Daten optimieren können.
„Die meisten herkömmlichen Vertrauens- und Sicherheitslösungen sind nicht flexibel und nicht darauf ausgelegt, sich bei Missbrauch weiterzuentwickeln“, sagte Mellata. „Ressourcenbeschränkte Vertrauens- und Sicherheitsteams suchen heute mehr denn je nach Hilfe von Anbietern und versuchen, die Moderationskosten zu senken und gleichzeitig hohe Sicherheitsstandards aufrechtzuerhalten.“
Ohne eine Prüfung durch Dritte ist es schwer zu sagen, wie genau die Moderationsmodelle eines bestimmten Anbieters sind – und ob sie für solche Probleme anfällig sind Vorurteile die Content-Moderationsmodelle anderswo plagen. Aber Intrinsic scheint auf jeden Fall an Zugkraft zu gewinnen, da „große, etablierte“ Unternehmenskunden im Durchschnitt Verträge im „sechsstelligen“ Bereich abschließen.
Die kurzfristigen Pläne von Intrinsic bestehen darin, die Größe seines dreiköpfigen Teams zu vergrößern und seine Moderationstechnologie auszuweiten, um nicht nur Text und Bilder, sondern auch Video und Audio abzudecken.
„Die allgemeine Verlangsamung der Technologie führt zu einem stärkeren Interesse an Automatisierung für Vertrauen und Sicherheit, was Intrinsic in eine einzigartige Position bringt“, sagte Mellata. „COOs legen Wert darauf, Kosten zu senken. Den Chief Compliance Officers liegt die Reduzierung von Risiken am Herzen. Intrinsic hilft bei beidem. Wir sind günstiger und schneller und fangen viel mehr Missbrauch auf als bestehende Anbieter oder gleichwertige Inhouse-Lösungen.“