Diese Woche in der KI: Unternehmen werden zunehmend skeptisch gegenüber dem ROI von KI

Diese Woche in der KI Unternehmen werden zunehmend skeptisch gegenueber

Hallo Leute, willkommen beim regelmäßigen KI-Newsletter von Tech.

Diese Woche veröffentlichte Gartner im Bereich KI eine Bericht Dies lässt darauf schließen, dass etwa ein Drittel der generativen KI-Projekte in Unternehmen bis Ende 2025 nach der Proof-of-Concept-Phase abgebrochen werden. Die Gründe dafür sind vielfältig – schlechte Datenqualität, unzureichende Risikokontrollen, steigende Infrastrukturkosten und so weiter.

Eines der größten Hindernisse für die Einführung generativer KI ist laut Bericht jedoch der unklare Geschäftswert.

Die unternehmensweite Einführung generativer KI ist mit erheblichen Kosten verbunden, die zwischen 5 und satten 20 Millionen US-Dollar liegen, schätzt Gartner. Ein einfacher Codierungsassistent kostet zwischen 100.000 und 200.000 US-Dollar im Vorfeld und laufende Kosten von über 550 US-Dollar pro Benutzer und Jahr. Ein KI-gestütztes Dokumentsuchtool kann dagegen 1 Million US-Dollar im Vorfeld und zwischen 1,3 und 11 Millionen US-Dollar pro Benutzer und Jahr kosten, so der Bericht.

Diese hohen Kosten sind für die Unternehmen schwer zu verkraften, wenn die Vorteile schwer zu quantifizieren sind und es Jahre dauern kann, bis sie sich materialisieren – wenn sie es überhaupt tun. immer materialisieren.

Eine Umfrage von Upwork in diesem Monat zeigt, dass KI nicht die Produktivität steigert, sondern sich als Last für viele der Arbeitnehmer, die sie nutzen. Laut der Umfrage, bei der 2.500 Führungskräfte, Vollzeitmitarbeiter und Freiberufler befragt wurden, gaben fast die Hälfte (47 %) der Arbeitnehmer, die KI nutzen, an, dass sie keine Ahnung haben, wie sie die von ihren Arbeitgebern erwarteten Produktivitätssteigerungen erzielen können, während über drei Viertel (77 %) glauben, dass KI-Tools verringert Die Produktivität konnte gesteigert und ihre Arbeitsbelastung zumindest in irgendeiner Weise erhöht werden.

Es scheint, Flitterwochenphase der KI könnte trotz starker Aktivität auf der VC-Seite durchaus zu Ende gehen. Und das ist nicht überraschend. Anekdote nach Anekdote zeigt, wie generative KI trotz ungelöster grundlegender technischer Probleme häufig mehr Ärger macht, als sie wert ist.

Nur Dienstag, Bloomberg veröffentlicht ein Artikel über ein von Google betriebenes Tool, das mithilfe künstlicher Intelligenz Patientenakten analysiert und derzeit in HCA-Krankenhäusern in Florida getestet wird. Nutzer des Tools, mit denen Bloomberg gesprochen hat, sagten, dass es nicht immer zuverlässige Gesundheitsinformationen liefern könne; in einem Fall habe es nicht vermerkt, ob ein Patient unter Medikamentenallergien leide.

Unternehmen erwarten zunehmend mehr von KI. Sofern es keine bahnbrechenden Forschungsergebnisse gibt, die die schlimmsten Schwächen der Technologie beheben, liegt es an den Anbietern, die Erwartungen zu steuern.

Wir werden sehen, ob sie die Demut dazu haben.

Nachricht

SucheGPT: OpenAI hat letzten Donnerstag SearchGPT angekündigt, eine Suchfunktion, die auf der Grundlage von Webquellen „zeitnahe Antworten“ auf Fragen liefern soll.

Bing bekommt mehr KI: Um nicht übertroffen zu werden, hat Microsoft letzte Woche eine Vorschau auf seine eigene KI-gestützte Suchfunktion namens Bing Generative Search vorgestellt. Die Bing Generative Search ist derzeit nur für einen „kleinen Prozentsatz“ der Benutzer verfügbar und sammelt – wie SearchGPT – Informationen aus dem gesamten Web und generiert eine Zusammenfassung als Antwort auf Suchanfragen.

X ermöglicht Benutzern die Teilnahme an: X, ehemals Twitter, hat in aller Stille eine Änderung eingeführt, die anscheinend standardmäßig Benutzerdaten in den Trainingspool für Xs Chatbot Grok überträgt. Diese Änderung wurde am Freitag von Benutzern der Plattform bemerkt. EU-Regulierungsbehörden und andere riefen schnell Foul. (Sie fragen sich, wie Sie sich abmelden können? Hier ist eine Anleitung.)

EU ruft zu Hilfe bei KI auf: Die Europäische Union hat eine Konsultation zu Regeln eingeleitet, die für Anbieter allgemeiner KI-Modelle im Rahmen des AI Act des Blocks gelten sollen, einem risikobasierten Rahmen für die Regulierung von KI-Anwendungen.

Verwirrung im Hinblick auf die Lizenzierung des Herausgebers: Die KI-Suchmaschine Perplexity wird in Kürze damit beginnen, Werbeeinnahmen mit Nachrichtenverlagen zu teilen, wenn ihr Chatbot deren Inhalte als Antwort auf eine Anfrage anzeigt. Mit dieser Maßnahme sollen offenbar Kritiker beschwichtigt werden, die Perplexity Plagiate und unethisches Web Scraping vorgeworfen haben.

Meta führt AI Studio ein: Meta gab am Montag bekannt, dass es sein AI Studio-Tool allen Entwicklern in den USA zur Verfügung stellt, damit diese personalisierte KI-gestützte Chatbots erstellen können. Das Unternehmen stellte AI Studio letztes Jahr erstmals vor und begann im Juni mit ausgewählten Entwicklern, es zu testen.

Handelsministerium befürwortet „offene“ Modelle: Das US-Handelsministerium hat am Montag einen Bericht zur Unterstützung „offener“ generativer KI-Modelle wie Metas Llama 3.1 veröffentlicht, empfahl der Regierung jedoch, „neue Fähigkeiten“ zu entwickeln, um solche Modelle auf potenzielle Risiken zu überwachen.

99 $ Freund: Avi Schiffmann, ein Harvard-Abbrecher, arbeitet an einem 99 Dollar teuren KI-Gerät namens Friend. Wie der Name schon sagt, soll der um den Hals getragene Anhänger als eine Art Begleiter dienen. Aber es ist noch nicht klar, ob es wirklich so funktioniert wie angepriesen.

Forschungspapier der Woche

Reinforcement Learning aus menschlichem Feedback (RLHF) ist die vorherrschende Technik, um sicherzustellen, dass generative KI-Modelle Anweisungen befolgen und Sicherheitsrichtlinien einhalten. Für RLHF ist jedoch die Rekrutierung einer großen Anzahl von Personen erforderlich, um die Antworten eines Modells zu bewerten und Feedback zu geben – ein zeitaufwändiger und teurer Prozess.

OpenAI greift daher auf Alternativen zurück.

In einem neuen Papierbeschreiben Forscher bei OpenAI sogenannte regelbasierte Belohnungen (RBRs), bei denen eine Reihe schrittweiser Regeln verwendet wird, um die Reaktionen eines Modells auf Eingabeaufforderungen zu bewerten und zu steuern. RBRs zerlegen gewünschtes Verhalten in spezifische Regeln, die dann zum Trainieren eines „Belohnungsmodells“ verwendet werden, das die KI steuert – ihr gewissermaßen „beibringt“ –, wie sie sich in bestimmten Situationen verhalten und reagieren soll.

OpenAI behauptet, dass mit RBR trainierte Modelle eine bessere Sicherheitsleistung aufweisen als solche, die nur mit menschlichem Feedback trainiert wurden, und gleichzeitig den Bedarf an großen Mengen menschlicher Feedbackdaten reduzieren. Tatsächlich sagt das Unternehmen, dass es RBRs seit der Einführung von GPT-4 als Teil seines Sicherheits-Stacks verwendet und plant, RBRs in zukünftigen Modellen zu implementieren.

Modell der Woche

Googles DeepMind macht Fortschritte bei seinem Bestreben, komplexe mathematische Probleme mit Hilfe von KI zu lösen.

Vor ein paar Tagen hat DeepMind angekündigt dass es zwei KI-Systeme trainiert hat, vier der sechs Probleme der diesjährigen Internationalen Mathematik-Olympiade (IMO), dem prestigeträchtigen Mathematikwettbewerb für Highschools, zu lösen. DeepMind behauptet, dass die Systeme AlphaProof und AlphaGeometry 2 (der Nachfolger von AlphaGeometry vom Januar) eine Begabung für die Bildung und Nutzung von Abstraktionen und komplexer hierarchischer Planung gezeigt haben – alles Dinge, die für KI-Systeme in der Vergangenheit eine Herausforderung waren.

AlphaProof und AlphaGeometry 2 arbeiteten zusammen, um zwei Algebra-Probleme und ein Zahlentheorie-Problem zu lösen. (Die beiden verbleibenden Fragen auf Kombinatorik blieben ungelöst). Die Ergebnisse wurden von Mathematikern verifiziert. Es ist das erste Mal, dass KI-Systeme bei IMO-Fragen eine Leistung auf Silbermedaillenniveau erreichen konnten.

Es gibt jedoch ein paar Einschränkungen. Es dauerte Tage, bis die Modelle einige der Probleme lösen konnten. Und obwohl ihre Denkfähigkeiten beeindruckend sind, können AlphaProof und AlphaGeometry 2 bei offenen Problemen mit vielen möglichen Lösungen nicht unbedingt helfen, im Gegensatz zu Problemen mit nur einer richtigen Antwort.

Wir werden sehen, was die nächste Generation bringt.

Wundertüte

Das KI-Startup Stability AI hat ein generatives KI-Modell veröffentlicht, das ein Video eines Objekts in mehrere Clips umwandelt, die aussehen, als wären sie aus verschiedenen Winkeln aufgenommen worden.

Angerufen Stabiles Video 4DDas Modell könnte laut Stability in der Spieleentwicklung und Videobearbeitung sowie in der virtuellen Realität Anwendung finden. „Wir gehen davon aus, dass Unternehmen unser Modell übernehmen und es weiter verfeinern werden, um es ihren individuellen Anforderungen anzupassen“, so das Unternehmen. schrieb in einem Blog-Beitrag.

Bildnachweise: Stabilitäts-KI

Um Stable Video 4D zu verwenden, laden Benutzer Filmmaterial hoch und geben die gewünschten Kamerawinkel an. Nach etwa 40 Sekunden generiert das Modell dann acht Videos mit jeweils fünf Bildern (die „Optimierung“ kann allerdings weitere 25 Minuten dauern).

Stability sagt, dass es aktiv an der Verfeinerung des Modells arbeitet und es so optimiert, dass es eine größere Bandbreite an realen Videos verarbeiten kann als die aktuellen synthetischen Datensätze, mit denen es trainiert wurde. „Das Potenzial dieser Technologie bei der Erstellung realistischer Videos aus mehreren Winkeln ist enorm und wir sind gespannt, wie sie sich im Zuge der laufenden Forschung und Entwicklung weiterentwickeln wird“, so das Unternehmen weiter.

tch-1-tech