Diese Woche in AI: OpenAI ist dünn gesät

Hallo Leute, willkommen zum regelmäßigen KI-Newsletter von Tech. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang haben möchten, melden Sie sich hier an.

Nach einer kurzen Pause sind wir mit ein paar Shownotes zum DevDay von OpenAI zurück.

Die Keynote gestern Morgen in San Francisco zeichnete sich durch ihren gedämpften Ton aus – ein Kontrast zu der rachsüchtigen, hypebeasthaften Rede von CEO Sam Altman im letzten Jahr. An diesem DevDay begab sich Altman nicht auf die Bühne, um glänzende neue Projekte vorzustellen. Er erschien nicht einmal; Olivier Godement, Leiter Plattformprodukt, moderiert.

Auf der Tagesordnung dieses ersten von mehreren OpenAI DevDays – der nächste findet diesen Monat in London und der letzte im November in Singapur statt – standen Verbesserungen der Lebensqualität. OpenAI hat eine Echtzeit-Sprach-API sowie eine visuelle Feinabstimmung veröffentlicht, die es Entwicklern ermöglicht, sein GPT-4o-Modell mithilfe von Bildern anzupassen. Und das Unternehmen führte die Modelldestillation ein, bei der ein großes KI-Modell wie GPT-4o zur Feinabstimmung eines kleineren Modells verwendet wird.

Der enge Fokus der Veranstaltung war nicht unerwartet. OpenAI dämpfte in diesem Sommer die Erwartungen und sagte, dass sich der DevDay auf die Schulung von Entwicklern und nicht auf die Präsentation von Produkten konzentrieren würde. Dennoch warf das, was in der knappen, 60-minütigen Keynote am Dienstag ausgelassen wurde, Fragen über den Fortschritt – und Status – der unzähligen KI-Bemühungen von OpenAI auf.

Wir haben weder gehört, was die Nachfolge des fast ein Jahr alten Bildgenerators DALL-E 3 von OpenAI antreten könnte, noch haben wir ein Update zur eingeschränkten Vorschau für Voice Engine, das Voice-Cloning-Tool des Unternehmens, erhalten. Für Sora, den Videogenerator von OpenAI, gibt es noch keinen Zeitplan für die Veröffentlichung, und Mama hat das Wort zum Media Manager, der App, die das Unternehmen nach eigenen Angaben entwickelt, um Entwicklern die Kontrolle darüber zu geben, wie ihre Inhalte im Modelltraining verwendet werden.

Als er um einen Kommentar gebeten wurde, sagte ein OpenAI-Sprecher gegenüber Tech, dass OpenAI „langsam einführt“. [Voice Engine] Vorschau für vertrauenswürdigere Partner“ und dass sich Media Manager „noch in der Entwicklung“ befindet.

Aber es scheint klar zu sein, dass OpenAI ausgelastet ist – und das schon seit einiger Zeit.

Nach aktuellem Stand Berichterstattung Wie das Wall Street Journal berichtete, hatten die Teams des Unternehmens, die an GPT-4o arbeiteten, nur neun Tage Zeit, um Sicherheitsbewertungen durchzuführen. Vermögen Berichte dass viele OpenAI-Mitarbeiter dachten, dass o1, das erste „Reasoning“-Modell des Unternehmens, noch nicht für die Veröffentlichung bereit sei.

Auf dem Weg zu einer Finanzierungsrunde, die bis zu 6,5 Milliarden US-Dollar einbringen könnte, hat OpenAI seine Finger in vielen unausgegorenen Kuchen. In vielen qualitativen Tests ist DALL-3 schlechter als Bildgeneratoren wie Flux. Sora ist angeblich Die Generierung von Filmmaterial ist so langsam, dass OpenAI das Modell überarbeitet. und OpenAI verzögert weiterhin die Einführung des Umsatzbeteiligungsprogramms für seinen Bot-Marktplatz, den GPT Store, das ursprünglich für das erste Quartal dieses Jahres vorgesehen war.

Ich bin nicht überrascht, dass OpenAI jetzt damit konfrontiert ist Burnout des Personals und Abgänge von Führungskräften. Wenn Sie versuchen, ein Alleskönner zu sein, sind Sie am Ende ein Meister von nichts – und erfreuen niemanden.

Nachricht

Veto gegen KI-Gesetzentwurf eingelegt: Der Gouverneur von Kalifornien, Gavin Newsom, legte sein Veto gegen SB 1047 ein, einen hochkarätigen Gesetzentwurf, der die Entwicklung von KI im Bundesstaat geregelt hätte. In einer Erklärung bezeichnete Newsom den Gesetzentwurf als „gut gemeint“, aber „[not] „Der beste Ansatz“, um die Öffentlichkeit vor den Gefahren der KI zu schützen.

Verabschiedete KI-Gesetze: Newsom hat andere KI-Vorschriften in Kraft gesetzt – darunter Gesetzesentwürfe, die sich mit der Offenlegung von KI-Trainingsdaten, Deepfake-Aktfotos und mehr befassen.

Y Combinator kritisierte: Der Startup-Beschleuniger Y Combinator steht in der Kritik, nachdem er ein KI-Unternehmen, PearAI, unterstützt hat, dessen Gründer zugegeben haben, dass sie im Grunde ein Open-Source-Projekt namens Continue geklont haben.

Copilot wird aktualisiert: Der KI-gestützte Copilot-Assistent von Microsoft wurde am Dienstag überarbeitet. Es kann jetzt unter anderem Ihren Bildschirm lesen, gründlich nachdenken und laut mit Ihnen sprechen.

OpenAI-Mitbegründer schließt sich Anthropic an: Durk Kingma, einer der weniger bekannten Mitbegründer von OpenAI, diese Woche angekündigt Er wird Anthropic beitreten. Es ist jedoch unklar, woran er arbeiten wird.

KI-Training anhand von Kundenfotos: Die KI-gestützten Ray-Bans von Meta verfügen auf der Vorderseite über eine Kamera für verschiedene AR-Funktionen. Aber es könnte sich als Datenschutzproblem herausstellen – das Unternehmen wird nicht sagen, ob es plant, Modelle anhand von Bildern von Benutzern zu trainieren.

KI-Kamera des Raspberry Pi: Raspberry Pi, das Unternehmen, das winzige, günstige Einplatinencomputer verkauft, hat die Raspberry Pi AI Camera herausgebracht, ein Add-on mit integrierter KI-Verarbeitung.

Forschungspapier der Woche

KI-Codierungsplattformen haben Millionen von Nutzern gewonnen und Hunderte Millionen Dollar von VCs angezogen. Aber halten sie ihre Versprechen, die Produktivität zu steigern?

Vielleicht nicht, so a neue Analyse von Uplevel, einem Unternehmen für technische Analysen. Uplevel verglich Daten von etwa 800 seiner Entwicklerkunden – von denen einige angaben, das KI-Codierungstool Copilot von GitHub zu verwenden, andere nicht. Uplevel stellte fest, dass Entwickler, die sich auf Copilot verließen, 41 % mehr Fehler verursachten und nicht weniger anfällig für Burnout waren als diejenigen, die das Tool nicht nutzten.

Entwickler zeigen Begeisterung für KI-gestützte unterstützende Codierungstools, obwohl sie nicht nur Bedenken hinsichtlich der Sicherheit, sondern auch hinsichtlich Urheberrechtsverletzungen und Datenschutz haben. Der überwiegende Mehrheit der Entwickler, die an der neuesten Umfrage von GitHub teilnahmen, gaben an, dass sie KI-Tools in irgendeiner Form angenommen haben. Auch die Unternehmen sind optimistisch – Microsoft berichtete im April, dass Copilot dies getan habe über 50.000 Unternehmenskunden.

Modell der Woche

Liquid AI, ein Spin-off des MIT, kündigte diese Woche seine erste Serie generativer KI-Modelle an: Liquid Foundation Models, kurz LFMs.

„Na und?“ könnte man fragen. Modelle sind eine Ware – praktisch täglich kommen neue auf den Markt. Nun, LFMs verwenden eine neuartige Modellarchitektur und erzielen bei einer Reihe von Branchen-Benchmarks hervorragende Wettbewerbsergebnisse.

Bei den meisten Modellen handelt es sich um sogenannte Transformatoren. Der Transformer wurde 2017 von einem Team von Google-Forschern vorgeschlagen und hat sich zur dominierenden generativen KI-Modellarchitektur entwickelt bei weitem. Transformers sind die Grundlage für Sora und die neueste Version von Stable Diffusion sowie textgenerierende Modelle wie Claude von Anthropic und Gemini von Google.

Aber Transformatoren haben Einschränkungen. Insbesondere sind sie nicht sehr effizient bei der Verarbeitung und Analyse großer Datenmengen.

Liquid behauptet, dass seine LFMs im Vergleich zu Transformer-Architekturen einen geringeren Speicherbedarf haben, wodurch sie größere Datenmengen auf derselben Hardware aufnehmen können. „Durch die effiziente Komprimierung von Eingaben können LFMs längere Sequenzen verarbeiten [of data]„, schrieb das Unternehmen in einem Blogbeitrag.

Die LFMs von Liquid sind auf einer Reihe von Cloud-Plattformen verfügbar und das Team plant, die Architektur mit zukünftigen Versionen weiter zu verfeinern.

Wundertüte

Wenn Sie geblinzelt haben, haben Sie es wahrscheinlich verpasst: Ein KI-Unternehmen hat diese Woche den Börsengang beantragt.

Das in San Francisco ansässige Startup namens Cerebras entwickelt Hardware zum Ausführen und Trainieren von KI-Modellen und konkurriert direkt mit Nvidia.

Wie will Cerebras also gegen den Chipriesen antreten? befohlen Stand Juli zwischen 70 % und 95 % des KI-Chip-Segments? Auf Leistung, sagt Cerebras. Das Unternehmen behauptet, dass sein Flaggschiff-KI-Chip, den es sowohl direkt verkauft als auch als Service über seine Cloud anbietet, die Hardware von Nvidia übertreffen kann.

Doch Cerebras muss diesen angeblichen Leistungsvorteil noch in Gewinn umsetzen. Das Unternehmen verzeichnete im ersten Halbjahr 2024 einen Nettoverlust von 66,6 Millionen US-Dollar. pro Einreichung bei der SEC. Und für das letzte Jahr meldete Cerebras einen Nettoverlust von 127,2 Millionen US-Dollar bei einem Umsatz von 78,7 Millionen US-Dollar.

Cerebras könnte versuchen, durch den Börsengang bis zu 1 Milliarde US-Dollar einzusammeln. nach zu Bloomberg. Bisher hat das Unternehmen 715 Millionen US-Dollar an Risikokapital eingesammelt und wurde vor drei Jahren mit über 4 Milliarden US-Dollar bewertet.

tch-1-tech