Hiya, Leute, willkommen in TechCrunchs regulärem KI -Newsletter. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang wollen, melden Sie sich hier an.
Sie haben vielleicht bemerkt, dass wir den Newsletter letzte Woche übersprungen haben. Der Grund? Ein chaotischer KI -Nachrichtenzyklus, der durch die plötzliche Aufstieg des chinesischen KI -Unternehmens Deepseek noch pandemischer wurde, und die Reaktion von praktisch jemals immer in der Ecke von Industrie und Regierung.
Glücklicherweise sind wir wieder auf dem richtigen Weg – und nicht einen Moment zu früh, wenn man bedenkt, dass die Newsy -Entwicklungen am vergangenen Wochenende von OpenAI.
Der CEO von OpenAI, Sam Altman, machte in Tokio vorbei, um mit Masayoshi Sohn, dem CEO des japanischen Konglomerats Softbank, auf der Bühne zu plaudern. Softbank ist ein großer OpenAI -Investor und Partnernachdem er sich verpflichtet hatte, das massive Infrastrukturprojekt von OpenAI in den USA zu finanzieren
Altman hatte wahrscheinlich das Gefühl, dass er Sohn ein paar Stunden seiner Zeit schuldete.
Worüber haben die zwei Milliardäre gesprochen? Viele abstrakte Abtrkte arbeiten über KI -Agenten pro Second -Hand -Berichterstattung. Sohn sagte [sic] Intelligenz “mit dem Ziel, Millionen traditioneller Angestellten zu automatisieren.
„Durch die Automatisierung und Autonisierung aller Aufgaben und Workflows wird SoftBank Corp. seine Geschäfts- und Dienstleistungen verändern und einen neuen Wert schaffen“, sagte Softbank in einem Pressemitteilung Montag.
Ich frage jedoch, was der bescheidene Arbeiter über all diese Automatisierung und Autonomisierung nachdenken soll.
Wie Sebastian Siemiatkowski, CEO von Fintech Klarna, der oft prahlt damit, dass KI Menschen ersetztDer Sohn scheint der Meinung zu sein, dass agierende Stand-Ins für Arbeiter nur fabelhaften Reichtum auslösen können. Beschönigt sind die Kosten für die Fülle. Sollte die weit verbreitete Automatisierung von Arbeitsplätzen kommen, um zu bestehen, Arbeitslosigkeit in enormem Maßstab scheint das wahrscheinlichste Ergebnis zu sein.
Es ist entmutigend, dass diejenigen, die an der Spitze des KI -Rennens – Unternehmen wie OpenAI und Investoren wie SoftBank – Pressekonferenzen verbringen, ein Bild von automatisierten Unternehmen mit weniger Arbeitern auf der Gehaltsabrechnung zu malen. Natürlich sind sie Unternehmen – keine Wohltätigkeitsorganisationen. Und die KI -Entwicklung ist nicht billig. Aber vielleicht Leute würde KI vertrauen Wenn diejenigen, die ihren Einsatz leiten, etwas mehr Sorge um ihr Wohlergehen zeigten.
Essen zum Gedanken.
Nachricht
Tiefe Forschung: OpenAI hat einen neuen KI-Agenten auf den Markt gebracht, der Menschen dabei helfen soll, mit Chatgpt, der KI-gestützten Chatbot-Plattform des Unternehmens, eine ausführliche und komplexe Forschung zu führen.
O3-mini: In anderen OpenAI-Nachrichten startete das Unternehmen nach einer Vorschau im vergangenen Dezember ein neues KI-Modell „Argumenting“, O3-Mini. Es ist nicht offenes Modell von Openai, aber O3-Mini hat eine verbesserte Effizienz und Reaktionsgeschwindigkeit.
EU verbietet riskante KI: Am Sonntag in der Europäischen Union können die Aufsichtsbehörden des Blocks die Verwendung von KI -Systemen verbieten, die sie für ein „inakzeptables Risiko“ oder einen Schaden erweisen. Dazu gehört KI, das für soziale Bewertungen und unterschwellige Werbung verwendet wird.
Ein Stück über KI „Doomers“: Es gibt ein neues Stück über die KI „Doomer“ -Kultur, die im November 2023 lose auf Sam Altmans Einstieg als CEO von Openai basiert. Meine Kollegen Dominic und Rebecca teilen ihre Gedanken nach dem Anschauen der Premiere.
Tech zur Steigerung der Ernteerträge: Googles X „Moonshot Factory“ in dieser Woche gab seinen letzten Absolvent bekannt. Vererbbare Landwirtschaft ist ein daten- und maschinelles, lernbetriebenes Startup, das darauf abzielt, die Art und Weise zu verbessern, wie Pflanzen angebaut werden.
Forschungspapier der Woche
Argumentationsmodelle sind besser als Ihre durchschnittliche KI bei der Lösung von Problemen, insbesondere von Fragen der Wissenschaft und Mathematik. Aber sie sind keine silberne Kugel.
A Neue Studie von Forschern des chinesischen Unternehmens Tencent Untersucht das Problem der „Unterdenken“ in Argumentationsmodellen, bei denen Modelle vorzeitig unerklärlicherweise potenziell vielversprechende Denkketten aufgeben. Gemäß den Ergebnissen der Studie treten „Unterdenke“ -Muster in der Regel häufiger mit schwierigeren Problemen auf und führen die Modelle dazu, zwischen Argumentationsketten zu wechseln, ohne zu Antworten zu kommen.
Das Team schlägt eine Lösung vor, die eine „Gedanken-sankte Strafe“ einsetzt, um Modelle zu ermutigen, jede Argumentation zu entwickeln, bevor sie Alternativen in Betracht ziehen, und die Genauigkeit der Modelle steigert.
Modell der Woche
Ein Team von Forschern, die von Tiktok Besitzer Bytedance, chinesischer KI-Firma Moonshot unterstützt wurden, und andere veröffentlichten ein neues offenes Modell, das relativ hochwertige Musik aus Eingabeaufforderungen erzeugen kann.
Das Modell genannt Yuekann einen Song bis zu wenigen Minuten lang mit Gesang und Backing -Tracks ausgeben. Es steht unter einer Apache 2.0 -Lizenz, dh das Modell kann kommerziell ohne Einschränkungen verwendet werden.
Es gibt jedoch Nachteile. Running Yue erfordert eine kräftige GPU; Das Generieren eines 30-Sekunden-Songs dauert sechs Minuten mit einem NVIDIA RTX 4090. Darüber hinaus ist nicht klar, ob das Modell mit urheberrechtlich geschützten Daten trainiert wurde. Seine Schöpfer haben es nicht gesagt. Wenn sich herausstellen, dass urheberrechtlich geschützte Songs tatsächlich im Trainingssatz des Modells waren, könnten Benutzer zukünftigen IP -Herausforderungen stehen.
Tasche greifen
AI Lab Anthropic behauptet, dass es eine Technik entwickelt habe, um sich zuverlässig gegen AI -Jailbreaks zu verteidigen, die Methoden, mit denen die Sicherheitsmaßnahmen eines KI -Systems umgehen können.
Die Technik, Verfassungsklassifiziererstützt sich auf zwei Sätze von AI -Modellen „Klassifizierer“: einen „Eingabe“ -Klassifikator und einen Ausgangsklassifizierer. Der Eingabeklassifizierer fügt Auffordern zu einem gesicherten Modell mit Vorlagen an, die Jailbreaks und andere nicht zugelassene Inhalte beschreiben, während der Ausgangsklassifikator die Wahrscheinlichkeit berechnet, dass eine Antwort aus einem Modell schädliche Informationen erörtert.
Anthropic sagt, dass konstitutionelle Klassifizierer die „überwiegende Mehrheit“ von Jailbreaks filtern können. Es gilt jedoch mit Kosten. Jede Abfrage ist 25% rechnerisch anspruchsvoller, und das geschützte Modell ist um 0,38% seltener, dass es harmlose Fragen beantwortet.