Betaworks ist kein Unbekannter darin, in künstliche Intelligenz und maschinelles Lernen zu investieren, aber die neueste Kohorte ihres Camp-„Themenbeschleunigers“ zeigt ein Vertrauen in diesem Bereich, das über die gegenwärtige Faszination für Chatbots hinausgeht. Gründer und CEO John Borthwick beschrieb das Unternehmen als „großes Interesse“ an diesem Bereich KI als Erweiterung und nicht nur ein Produkt an sich.
Sie sind auch nicht die Einzigen: „Dieses spezielle Camp hatte doppelt so viele Bewerber wie letztes Jahr“, erzählte mir Borthwick. „Das Schöne daran ist, dass man einen offenen Aufruf veröffentlicht und unter diesem Banner, dieser These, man mehr Vielfalt bekommt, als man erwartet.“ Wir glauben, dass wir in den nächsten zwei bis drei Jahren eine unglaubliche Anzahl von Unternehmen sehen werden, die KI-Modelle entwickeln und nutzen, um menschliche Arbeitsabläufe und Verhaltensweisen zu verbessern.“
Es ist vielleicht die allgemein nützlichste Eigenschaft von ChatGPT, dass es (vorausgesetzt, Sie wissen, wann es Sie anzieht) schnell und zufriedenstellend eine Frage zu fast jedem Thema beantworten oder eine vernünftige Antwort auf so etwas wie ein Codierungsproblem geben kann. Nur wenige reden mit KIs nur aus Vergnügen (obwohl es solche gibt, die das tun); Wenn es Ihre Arbeit erleichtern kann, warum nicht?
Borthwick stellte fest, dass Betaworks seit 2016 in KI und ML investiert, als es noch weitaus rudimentärer war.
„Wir begannen damit, systematisch die Schnittstelle zwischen ML und einer bestimmten Modalität zu untersuchen: maschinelles Lernen und Audio, synthetische Medien, all diese verschiedenen Daten- oder Medienobjekte“, sagte er. „In den letzten ein oder zwei Jahren haben wir über die Rolle der KI im Zusammenhang mit menschlichen Arbeitsabläufen nachgedacht und sind fest davon überzeugt und wollen in sie investieren und den Markt in Richtung Augmentation bewegen.“
Das ist, als würde man sich KI als „ein Fahrrad für den Geist“ vorstellen und nicht als ein rein generatives oder eigenständiges Produkt. Das zeigt sich in den ausgewählten Unternehmen, von denen viele KI einsetzen oder nutzen, um bestehende Prozesse zu beschleunigen oder zu verbessern, anstatt etwas völlig Neues zu machen. Jeder erhält 500.000 US-Dollar an Fördermitteln, zusätzlich zu allen bereits gesammelten Mitteln.
„Wir schauen uns den gesamten KI-Stack an. Bestimmte Dinge in diesem Camp sind fast Apps, dann gibt es Dinge, die viel mehr zur Middleware-Kategorie gehören“, fuhr Borthwick fort. „Bei dem Programm geht es eigentlich darum, die Produktmarkttauglichkeit zu finden und eine Produkt-Roadmap zu entwickeln, es geht weniger um performative Fundraising-Übungen. Etwa die Hälfte der Unternehmen führt ihre Gehaltserhöhung vor oder während des Programms durch.“
Sie holten dieses Jahr drei Co-Investoren: Greycroft, Differential und Mozilla, die alle Co-Investitionen tätigen und ihre Ressourcen und Netzwerke den Startups zur Verfügung stellen werden. Betaworks erledigt immer noch alle eigentlichen Beschleunigeraufgaben.
Hier sind die 12 Unternehmen der diesjährigen Kohorte, zusammengefasst anhand der von ihnen übermittelten Zusammenfassungen; Ich habe jedem Unternehmen die naheliegendste Frage gestellt, die mir einfiel (in Kursivschrift), nachdem ich gehört hatte, was sie zu tun versuchen. Der Kürze halber habe ich auch ihre teilweise ausführlichen Antworten zusammengefasst. Es gibt detailliertere Informationen zu den einzelnen Themen, einschließlich der Gründer und ihrer Hintergründe drüben bei Betaworks.
- Armilla-Versicherung: Ein Dienst zur Bewertung der Qualität und Zuverlässigkeit von KI-Systemen. Das Unternehmen bietet dann eine Versicherung gegen Verluste an, die entstehen, wenn die Leistung der KI unter dem geschätzten Niveau liegt.Welche Kennzahlen werden zur Bewertung von KI-Risiko und -Eignung verwendet, und wenn sie Branchenstandard sind, warum sollte das Unternehmen sie dann nicht einfach intern bewerten?Armilla verwendet sowohl Industriestandards als auch proprietäre Testmethoden, um ein objektives Maß für die Qualität und eine Leistungsgarantie zu bieten. Sie sind jedoch kein Ersatz für die Einbeziehung dieser Maßnahmen in den Entwicklungsprozess.
- Bionische Gesundheit: Präventive Gesundheitsversorgung mithilfe eines KI-gesteuerten Modells, das auf Daten („reale Praktiken, Protokolle und Arbeitsabläufe von Ärzten, Praktikern und Patienten“) aus ihrer eigenen Klinik in North Carolina trainiert wurde. Hat außerdem ein intelligenteres elektronisches Gesundheitsaktensystem entwickelt, das Einbettungen für verbesserte Suche und Einblicke nutzt. 3,5 Millionen US-Dollar wurden bereits in einer Seed-Runde gesammelt.Warum sollte ich ein KI-Modell verwenden wollen, das auf Entscheidungen von Ärzten und Gesundheitsspezialisten basiert, anstatt einen Arzt oder einen anderen akkreditierten Gesundheitsspezialisten zu fragen?Das System unterstützt Ärzte und richtet sich nicht direkt an den Verbraucher. Die verbesserte elektronische Patientenakte soll den Verwaltungsaufwand in diesem Umfeld reduzieren und es Ärzten und Patienten ermöglichen, sich auf fundierte Pflegeentscheidungen zu konzentrieren.
- Geschickt: Eine ML-Plattform, die Kundenfeedback und andere Signale aggregiert und synthetisiert, um leichter umsetzbare Produktänderungen und -funktionen zu ermöglichen.Wie würde ein Startup in der Anfangsphase die „Schätze verstreuten Produkt-Feedbacks“ zusammenfassen und synthetisieren?Keine direkte Antwort, aber die in Feedbackformularen, Besprechungsnotizen und anderen Kanälen enthaltenen Daten werden erfasst und in einem Dashboard geteilt, damit sie von den Produktteams leichter interpretiert werden können.
- Globus: Erstellt große Sprachmodelle für Teams, die „komplexe Informationen sammeln, austauschen und verstehen“ müssen, beispielsweise bei groß angelegten Studien oder Produktentwicklungen. Das LLM erfasst alle relevanten Dokumente und kann in jedem Detaillierungsgrad eingesehen werden, von der Übersicht über technische Details bis hin zu genauen Zitaten aus relevanten Dokumenten.Warum sollte ich angesichts der Einschränkungen von LLMs darauf vertrauen, dass sie mehrere Detailebenen für komplexe Daten oder Projekte bereitstellen?Das Ziel besteht darin, nützliche Informationen ans Licht zu bringen, und zwar insbesondere Informationen, die einem vielleicht zunächst nicht bewusst waren – und nicht darin, daraus neue Informationen zu destillieren. Es scheint eher eine semantisch erweiterte Suche zu sein.
- GroupLang: Arbeit an Software, die es LLMs ermöglicht, mit Gruppen von Menschen statt mit Einzelpersonen zu interagieren, eine Aufgabe, die die Neudefinition von Benutzerpräferenzen, Datenschutz und anderen interessanten Fragen beinhaltet.Was ist ein Beispiel dafür, dass eine Gruppe gemeinsam mit einem LLM interagieren muss?Es handelt sich eher um eine kollektive Nutzung könnte Sie sagen, dass dies von Vorteil sein kann, beispielsweise bei einer gemeinsamen komplexen Aufgabe, bei der ein zentrales System Informationen verfolgt, die für alle Beteiligten wichtig sind.
- Offene Seelen: Ziel ist es, Konversations-KI-Modelle zu schaffen, die „autonom denken und sich wie echte Menschen verhalten“, komplett mit Gefühlen und Persönlichkeiten und interner Komplexität.Das ist eine ziemliche Behauptung. Aber handelt es sich nicht mehr oder weniger um ein fein abgestimmtes Modell mit einer künstlichen Persona, die über erste Anweisungen geladen wird?Die Feinabstimmung von Personas führt in erster Linie zu einer Änderung der Sprachmuster, nicht jedoch der internen Funktionsweise des Modells. Ihr Ansatz besteht darin, LLMs mit zusätzlichen nicht sichtbaren Prozessen zu ergänzen, um „reiche innere Monologe“ zu simulieren, die das Verhalten beeinflussen.
- Pangäa: Verwendung von KI und einigen benutzerdefinierten Backend-Technologien, um Spiele schneller zu entwickeln und zeitaufwändige Aufgaben zu übernehmen, mit Eigenentwicklung eines Rogue-Lite-Battle-Royale-Spiels (Project Rise) mit prozedural generierten Karten. Wettbewerbsfähige Multiplayer-Spiele erfordern ein sorgfältiges Gameplay und eine sorgfältige Kartenbalance. Wie kann das mit dieser Ebene der prozeduralen Generierung erreicht werden?Bei einigen Spielen geht es mehr um perfekte Balancen als bei anderen, und in diesem Fall ist es wichtiger sicherzustellen, dass es „fair“ ist und dass Verluste nicht direkt auf schlechte Proc-Gene zurückzuführen sind. Es wird handgestaltete Räume, Herausforderungen, Levels und Regeln geben, um sicherzustellen, dass das Erlebnis gut abgestimmt ist. Und wenn du stirbst, wirst du als Monster wiedergeboren und behältst einen Teil deiner Fortschritte.
- Kunststofflabore: Zielt darauf ab, die Lebensfähigkeit von LLM zu verbessern, indem „der Fluss vertraulicher psychologischer Daten zwischen Benutzern und Modellen sicher verwaltet wird“. So erhalten Sie Anpassungen für verschiedene Agenten, ohne dass diese jedes Mal Ihre unterschiedlichen Vorlieben und Tendenzen lernen und speichern müssen.Woraus besteht dieses Framework eigentlich und wie kann es wirksam bleiben, wenn die betreffenden KI-Apps alle unterschiedliche Grundmodelle oder Tuning-Prozesse verwenden?Ein „sicheres Middleware-Relay“. Bestimmte Ansätze funktionieren in allen LLM-Studiengängen, da allen Grundmodellen offenbar die Fähigkeit gemeinsam ist, „Vorhersagen über interne mentale Zustände zu erstellen und zu verstehen“. Was genau diese Fähigkeit bedeutet, ist nicht klar (obwohl das Team hat seine Theorien), aber sie behaupten, dass es ihre tragbare Personalisierung ermöglicht.
- Shader: Eine Social-Kamera-App, mit der Benutzer AR-Filter mithilfe einer einfachen Benutzeroberfläche ohne Code erstellen können, einschließlich Sprache und einfachem Tippen und Wischen.Wie sieht der Erstellungsprozess aus und wie kann der Filter auf proprietären Plattformen wie Instagram oder Snapchat geteilt werden?Sie beschreiben, was Sie wollen, mit einer traditionellen Aufforderung wie „Cyberpunk-Elfengesicht“ und dann kann es live auf Ihr Gesicht abgebildet werden. Der Filter selbst bleibt auf Shader, Sie müssen Videos in andere Dienste exportieren. Mehrere Beispiele dazu ICH G Und Tick Tack.
- Unakin: Ziel ist es auch, die Entwicklungszeit mit KI-Code-Assistenten zu verkürzen. Erstens handelt es sich um einen UI-Programmieragenten, der funktionierende Spiel-KIs mit Text- oder visuellen Eingabeaufforderungen erstellt, weitere werden folgen. Existiert der vorgeschlagene Agent und wozu ist er im Vergleich zu anderen codegenerierenden LLMs derzeit konkret in der Lage?Sie verwenden es intern für eine verbesserte Codesuche, Codegenerierung (noch nicht im Benchmarking, dürfte aber insbesondere bei der UI-Erstellung konkurrenzfähig sein) und einen Bild-zu-Code-Prozess, bei dem Figma- und Adobe-Dateien direkt im Spiel verwendet werden können Benutzeroberfläche.
- Vera: Unterstützt Arbeitsplätze bei der Einführung von KI, indem es gemäß den vom Unternehmen festgelegten Regeln filtert, was in die Modelle ein- und ausgeht. Es ist im Grunde die Art von Aufsicht, die die IT bei anderer Unternehmenssoftware erhält, außer bei generativer KI.Dies zeichnet also alle Eingaben und Ausgaben der von einem Unternehmen verwendeten KIs auf und ermöglicht eine genauere Kontrolle darüber, was gefragt oder beantwortet wird?Grundsätzlich ja – es berücksichtigt Sicherheits- und Datenschutzbedenken, indem es die Interaktionen beobachtbar macht und Dinge wie sensible Informationen abfängt, bevor sie an das LLM gesendet werden. Antworten können auch auf Konsistenz und Fehler überprüft werden.
- Waverly: Ein „soziales Netzwerk von Ideen“, das KI nutzt, um sie „neu zu mischen“, und Konversations-KI als Steuerungsmethode für den Feed nutzt. Wie genau „mischt“ das KI-Modell Ideen neu und wie bietet eine Konversations-KI eine bessere Möglichkeit, den eigenen Feed zu steuern?Das Tool „WordDJ“ hat keine Tastatur, lässt sich aber mit Textblöcken wie Kühlschrankmagneten verschieben oder kombinieren. Mit dem Konversationsagenten können Benutzer genauer beschreiben, was sie mehr oder weniger sehen möchten, anstatt Konten oder ähnliches stummzuschalten.