Wie Kapa LLMs einsetzt, um Unternehmen dabei zu helfen, technische Fragen der Anwender zuverlässig zu beantworten

Wie Kapa LLMs einsetzt um Unternehmen dabei zu helfen technische

Generative KI und große Sprachmodelle (LLMs) waren in den letzten Jahren in aller Munde und haben die traditionelle Online-Suche über ChatGPT auf den Kopf gestellt und gleichzeitig den Kundensupport, die Inhaltsgenerierung, die Übersetzung und mehr verbessert. Jetzt nutzt ein junges Startup LLMs, um KI-Assistenten zu entwickeln, die speziell in der Lage sind, komplexe Fragen für Entwickler, Software-Endbenutzer und Mitarbeiter zu beantworten – es ist wie ChatGPT, aber für technische Produkte.

Gegründet im Februar letzten Jahres, Kapa.ai ist Absolvent des Y Combinator’s (YC) Programm Sommer 2023und es hat bereits eine ziemlich beeindruckende Kundenliste aufgebaut, darunter den ChatGPT-Hersteller OpenAI, Docker, Reddit, Monday.com und Mapbox. Nicht schlecht für ein 18 Monate altes Unternehmen.

„Unser ursprüngliches Konzept entstand, nachdem sich mehrere Freunde, die Technologieunternehmen leiteten, mit dem gleichen Problem gemeldet hatten, und nachdem wir den ersten Prototyp von Kapa.ai gebaut hatten, um dieses Problem für sie zu lösen, konnten wir innerhalb einer Woche unser erstes bezahltes Pilotprojekt an Land ziehen“, sagten CEO und Co -Gründer Emil Sörensen sagte Tech. „Dies führte zu organischem Wachstum durch Mundpropaganda – unsere Kunden wurden zu unseren größten Fürsprechern.“

Um auf diesem frühen Erfolg aufzubauen, hat Kapa.ai nun in einer Startfinanzierungsrunde unter der Leitung von 3,2 Millionen US-Dollar eingesammelt Initialisiertes Kapital.

Es wird technisch

Im weitesten Sinne geben Unternehmen ihre technische Dokumentation in Kapa.ai ein, das dann eine Schnittstelle bereitstellt, über die Entwickler und Endbenutzer Fragen stellen können. Docker zum Beispiel, vor kurzem gestartet ein neuer Dokumentationsassistent namens Docker Docs AI, der auf seinen Dokumentationsseiten sofortige Antworten auf Docker-bezogene Fragen bietet – er wurde mit Kapa.ai erstellt.

Kapa.ai auf Docker. Bildnachweis:Kapa.ai

Aber Kapa.ai kann für unzählige Anwendungsfälle wie Kundensupport, Community-Engagement und als Arbeitsplatzassistent verwendet werden, um Mitarbeitern dabei zu helfen, die Wissensdatenbank ihres Unternehmens abzufragen.

Unter der Haube basiert Kapa.ai auf mehreren LLMs verschiedener Anbieter und stützt sich auf ein maschinelles Lernframework namens Retrieval Augmented Generation (RAG), das die Leistung von LLMs verbessert, indem es ihnen ermöglicht, problemlos auf relevante externe Datenquellen zurückzugreifen, um umfassendere Bereitstellungen bereitzustellen Antworten.

„Wir sind modellunabhängig – wir arbeiten mit mehreren Anbietern zusammen und verwenden auch unsere eigenen Modelle, um für jeden spezifischen Anwendungsfall die leistungsstärksten Stack- und Abruftechniken zu verwenden“, sagte Sorensen.

Es ist erwähnenswert, dass es bereits eine Reihe ähnlicher Tools gibt, darunter auch von Risikokapitalgebern finanzierte Start-ups wie Sana und Kore.ai, bei denen es im Wesentlichen darum geht, Konversations-KI in die Wissensdatenbanken von Unternehmen zu integrieren. Kapa.ai wiederum passt in diese Kategorie, aber das Unternehmen gibt an, dass sein Hauptunterscheidungsmerkmal darin besteht, dass es sich weitgehend auf externe Benutzer und nicht auf Mitarbeiter konzentriert – und das hatte großen Einfluss auf sein Design.

„Bei der externen Bereitstellung eines KI-Assistenten für Endbenutzer verzehnfacht sich der Grad der Prüfung“, sagte Sorensen. „Genauigkeit ist das Einzige, was zählt, denn Unternehmen befürchten, dass KI ihre Kunden in die Irre führt, und jeder hat versucht, ChatGPT oder Claude halluzinieren zu lassen.“ Ein paar schlechte Antworten und ein Unternehmen verliert sofort das Vertrauen in Ihr System. Darum geht es uns.“

Genauigkeit

Dieser Fokus auf die Bereitstellung präziser Antworten zur technischen Dokumentation mit minimalen Halluzinationen verdeutlicht, dass Kapa.ai eine andere Art von LLM-Tier ist – es ist für einen viel engeren Anwendungsfall konzipiert.

„Die Optimierung eines Systems im Hinblick auf Genauigkeit geht natürlich mit Kompromissen einher, denn das bedeutet, dass wir das System weniger kreativ gestalten müssen, als andere LLM-Systeme es sich leisten können“, sagte Sorensen. „Damit soll sichergestellt werden, dass die Antworten nur aus dem Universum der von ihnen bereitgestellten Inhalte generiert werden.“

Dann ist da noch das heikle Thema des Datenschutzes – eines der größten Abschreckungsmittel für Unternehmen wollen Sie möchten generative KI einführen, sind jedoch vorsichtig, wenn es darum geht, sensible Daten an Drittsysteme weiterzugeben. Als solches Kapa.ai beinhaltet Erkennung und Maskierung von PII-Daten (persönlich identifizierbare Informationen), die dazu beitragen, dass private Informationen weder gespeichert noch weitergegeben werden.

Dazu gehört das Scannen personenbezogener Daten in Echtzeit: Wenn eine Nachricht von Kapa.ai empfangen wird, wird sie nach personenbezogenen Daten durchsucht. Wenn personenbezogene Daten erkannt werden, wird die Nachricht abgelehnt und nicht gespeichert. Benutzer können Kapa.ai auch so konfigurieren, dass alle in einem Dokument erkannten PII-Daten anonymisiert werden.

Unternehmen können natürlich selbst etwas Ähnliches wie Kapa.ai zusammenstellen, indem sie Tools von Drittanbietern verwenden, z Der OpenAI-Dienst von Azure oder Deepsets Heuhaufen. Aber es ist ein zeitaufwändiges und ressourcenintensives Unterfangen, insbesondere wenn Sie einfach auf das Website-Widget von Kapa tippen, seinen Bot für Slack oder Zendesk bereitstellen oder seine API verwenden können, mit der Unternehmen die Dinge mit ihren eigenen Schnittstellen ein wenig anpassen können.

„Die meisten Menschen, mit denen wir zusammenarbeiten, möchten nicht die gesamte technische Arbeit übernehmen oder verfügen nicht unbedingt über die KI-Ressourcen in ihren Teams, um dies zu tun“, sagte Sorensen. „Sie wünschen sich eine genaue und zuverlässige KI-Engine, der sie ausreichend vertrauen können, um sie den Kunden direkt zur Verfügung zu stellen, und die bereits für ihren Anwendungsfall der Beantwortung technischer Produktfragen optimiert wurde.“

In Bezug auf die Preisgestaltung gibt Kapa.ai an, dass es ein SaaS-Abonnementmodell verwendet und gestaffelte Preise basierend auf der Komplexität der Bereitstellung und Nutzung anbietet – diese Preise werden jedoch nicht veröffentlicht.

Das Unternehmen verfügt über ein neunköpfiges Remote-Team, das auf der ganzen Welt an zwei Hauptstandorten in Kopenhagen, wo Sorensen ansässig ist, und San Francisco verteilt ist.

Neben dem Hauptfinanzierer Initialized Capital beteiligten sich an der Seed-Runde von Kapa.ai auch Y Combinator und eine Reihe von Angel-Investoren, darunter Docker-Gründer Solomon Hykes, Stanford-Professor und KI-Forscher Douwe Kielaund Replit-Gründer Amjad Masad.

tch-1-tech