Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine praktische Zusammenfassung der neuesten Geschichten aus der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, die wir nicht alleine behandelt haben.
Diese Woche stellte Amazon Rufus vor, einen KI-gestützten Einkaufsassistenten, der auf den Produktkatalog des E-Commerce-Riesen sowie auf Informationen aus dem Internet trainiert ist. Rufus lebt in der mobilen App von Amazon und hilft bei der Suche nach Produkten, führt Produktvergleiche durch und erhält Kaufempfehlungen.
Von einer umfassenden Recherche zu Beginn einer Einkaufsreise, wie zum Beispiel „Was ist beim Kauf von Laufschuhen zu beachten?“ bis hin zu Vergleichen wie „Was sind die Unterschiede zwischen Trail- und Straßenlaufschuhen?“ … Rufus verbessert die Art und Weise, wie Kunden die besten Produkte für ihre Bedürfnisse finden und entdecken können, erheblich“, schreibt Amazon in einem Blogbeitrag.
Das ist alles großartig. Aber meine Frage ist, wer danach verlangt Wirklich?
Ich bin nicht davon überzeugt, dass GenAI, insbesondere in Form eines Chatbots, eine Technologie ist, die dem Durchschnittsmenschen am Herzen liegt – oder über die er überhaupt nachdenkt. Umfragen unterstützen mich dabei. Im vergangenen August stellte das Pew Research Center fest, dass nur 26 % derjenigen in den USA, die vom GenAI-Chatbot ChatGPT von OpenAI gehört haben (18 % der Erwachsenen), ihn ausprobiert haben. Die Nutzung variiert natürlich je nach Alter, wobei ein größerer Prozentsatz junger Menschen (unter 50) angibt, es verwendet zu haben als ältere. Tatsache ist jedoch, dass die überwiegende Mehrheit nicht weiß oder sich nicht dafür interessiert, das wohl beliebteste GenAI-Produkt auf dem Markt zu verwenden.
GenAI hat seine weithin bekannten Probleme, darunter die Tendenz, Fakten zu erfinden, Urheberrechte zu verletzen und Voreingenommenheit und Toxizität zu verbreiten. Der vorherige Versuch von Amazon, einen GenAI-Chatbot zu entwickeln, Amazon Q, hatte große Schwierigkeiten – er enthüllte vertrauliche Informationen bereits am ersten Tag nach seiner Veröffentlichung. Aber ich würde behaupten, dass das größte Problem von GenAI derzeit – zumindest aus Verbrauchersicht – darin besteht, dass es nur wenige allgemein überzeugende Gründe für die Verwendung gibt.
Klar, GenAI wie Rufus kann bei spezifischen, eng gefassten Aufgaben wie dem Einkaufen nach Anlass (z. B. Kleidung für den Winter finden), dem Vergleich von Produktkategorien (z. B. dem Unterschied zwischen Lipgloss und Öl) und dem Aufdecken von Top-Empfehlungen (z. B. Geschenken zum Valentinstag) helfen. Entspricht es jedoch den Bedürfnissen der meisten Käufer? Laut einer aktuellen Studie nicht Umfrage vom E-Commerce-Software-Startup Namogoo.
Namogoo hat Hunderte von Verbrauchern zu ihren Bedürfnissen und Frustrationen beim Online-Shopping befragt und herausgefunden, dass Produktbilder bei weitem den wichtigsten Beitrag zu einem guten E-Commerce-Erlebnis leisten, gefolgt von Produktbewertungen und -beschreibungen. Die Befragten stuften die Suche als viertwichtigste und „einfache Navigation“ als fünfte ein; Das Erinnern an Vorlieben, Informationen und den Einkaufsverlauf stand an zweiter Stelle.
Die Implikation ist, dass Menschen beim Einkaufen im Allgemeinen ein Produkt im Hinterkopf haben; Diese Suche ist ein nachträglicher Einfall. Vielleicht bringt Rufus die Gleichung durcheinander. Ich bin eher der Meinung, dass das nicht der Fall ist, vor allem, wenn es sich um einen steinigen Rollout handelt (und es könnte durchaus sein, dass dies der Fall ist). Rezeption von Amazons anderen GenAI-Shopping-Experimenten) – aber es sind wohl seltsamere Dinge passiert.
Hier sind einige andere bemerkenswerte KI-Geschichten der letzten Tage:
- Google Maps experimentiert mit GenAI: Google Maps führt eine GenAI-Funktion ein, die Ihnen beim Entdecken neuer Orte hilft. Mithilfe großer Sprachmodelle (LLMs) analysiert die Funktion die über 250 Millionen Standorte auf Google Maps und Beiträge von mehr als 300 Millionen Local Guides, um Vorschläge basierend auf Ihren Suchanfragen zu erstellen.
- GenAI-Tools für Musik und mehr: In anderen Google-Nachrichten veröffentlichte der Technologieriese GenAI-Tools zum Erstellen von Musik, Texten und Bildern und brachte Gemini Pro, eines seiner leistungsfähigeren LLMs, den Nutzern seines Bard-Chatbots weltweit zur Verfügung.
- Neue offene KI-Modelle: Das Allen Institute for AI, das gemeinnützige KI-Forschungsinstitut, das vom verstorbenen Microsoft-Mitbegründer Paul Allen gegründet wurde, hat mehrere GenAI-Sprachmodelle veröffentlicht, von denen es behauptet, sie seien „offener“ als andere – und, was noch wichtiger ist, so lizenziert, dass Entwickler sie verwenden können Sie sind uneingeschränkt für Schulungen, Experimente und sogar für die Kommerzialisierung geeignet.
- FCC will KI-generierte Anrufe verbieten: Die FCC schlägt vor, die Verwendung der Voice-Cloning-Technologie bei Robocalls grundsätzlich für illegal zu erklären, was es einfacher macht, die Betreiber dieser Betrügereien anzuklagen.
- Shopify führt Bildeditor ein: Shopify veröffentlicht einen GenAI-Medieneditor zur Verbesserung von Produktbildern. Händler können einen Typ aus sieben Stilen auswählen oder eine Eingabeaufforderung eingeben, um einen neuen Hintergrund zu erstellen.
- GPTs, aufgerufen: OpenAI treibt die Einführung von GPTs, Drittanbieter-Apps, die auf seinen KI-Modellen basieren, durch die Aktivierung von ChatGPT voran Benutzer können sie in jedem Chat aufrufen. Bezahlte Benutzer von ChatGPT können GPTs in eine Konversation einbringen, indem sie „@“ eingeben und ein GPT aus der Liste auswählen.
- OpenAI arbeitet mit Common Sense zusammen: In einer unabhängigen Ankündigung sagte OpenAI, dass es mit Common Sense Media zusammenarbeitet, der gemeinnützigen Organisation, die die Eignung verschiedener Medien und Technologien für Kinder prüft und bewertet, um an KI-Richtlinien und Bildungsmaterialien für Eltern, Pädagogen und junge Erwachsene zusammenzuarbeiten.
- Autonomes Surfen: Die Browser Company, die den Arc Browser herstellt, ist auf der Suche nach einer KI, die für Sie im Internet surft und Ihnen Ergebnisse liefert, während sie Suchmaschinen umgeht, schreibt Ivan.
Mehr maschinelles Lernen
Weiß eine KI, was für eine bestimmte Situation, ein bestimmtes Medium oder eine bestimmte Äußerung „normal“ oder „typisch“ ist? In gewisser Weise eignen sich große Sprachmodelle hervorragend zur Identifizierung der Muster, die anderen Mustern in ihren Datensätzen am ähnlichsten sind. Und in der Tat Das haben Yale-Forscher herausgefunden in ihrer Forschung, ob eine KI die „Typizität“ einer Sache in einer Gruppe anderer erkennen kann. Wenn man beispielsweise 100 Liebesromane betrachtet, welcher ist der „typischste“ und welcher der am wenigsten „typische“, wenn man bedenkt, was das Modell über dieses Genre gespeichert hat?
Interessanterweise (und frustrierend) arbeiteten die Professoren Balázs Kovács und Gaël Le Mens jahrelang an ihrem eigenen Modell, einer BERT-Variante, und gerade als sie kurz vor der Veröffentlichung standen, kam ChatGPT heraus und duplizierte in vielerlei Hinsicht genau das, was sie getan hatten. „Man könnte weinen“, sagte Le Mens in einer Pressemitteilung. Aber die gute Nachricht ist, dass sowohl die neue KI als auch ihr altes, optimiertes Modell darauf hindeuten, dass diese Art von System tatsächlich erkennen kann, was in einem Datensatz typisch und untypisch ist, eine Erkenntnis, die später hilfreich sein könnte. Die beiden weisen zwar darauf hin, dass ChatGPT zwar ihre These in der Praxis untermauert, seine geschlossene Natur es jedoch schwierig macht, wissenschaftlich damit zu arbeiten.
Wissenschaftler der University of Pennsylvania untersuchten Ein weiteres seltsames Konzept, das es zu quantifizieren gilt: gesunder Menschenverstand. Indem man Tausende Menschen bittet, Aussagen wie „Man bekommt, was man gibt“ oder „Esse keine Lebensmittel nach Ablauf des Mindesthaltbarkeitsdatums“ zu bewerten, wie „unvernünftig“ sie seien. Es überrascht nicht, dass, obwohl Muster auftauchten, „nur wenige Überzeugungen auf Gruppenebene anerkannt wurden“.
„Unsere Ergebnisse deuten darauf hin, dass die Vorstellung von gesundem Menschenverstand bei jeder Person einzigartig ist, was das Konzept weniger verbreitet macht, als man erwarten könnte“, sagt Co-Hauptautor Mark Whiting. Warum steht das in einem KI-Newsletter? Denn wie so ziemlich alles andere stellt sich heraus, dass etwas so „Einfaches“ wie der gesunde Menschenverstand, den man von der KI irgendwann erwarten könnte, überhaupt nicht einfach ist! Durch diese Quantifizierung können Forscher und Prüfer jedoch möglicherweise sagen, wie viel gesunden Menschenverstand eine KI hat oder mit welchen Gruppen und Vorurteilen sie in Einklang steht.
Apropos Voreingenommenheit: Viele große Sprachmodelle gehen ziemlich locker mit den Informationen um, die sie aufnehmen. Wenn Sie ihnen also die richtige Aufforderung geben, können sie beleidigend, falsch oder beides reagieren. Latimer ist ein Startup, das dies mit einem Modell ändern möchte, das von Natur aus integrativer sein soll.
Obwohl es nicht viele Details zu ihrem Ansatz gibt, sagt Latimer, dass ihr Modell Retrieval Augmented Generation (zur Verbesserung der Antworten) und eine Reihe einzigartiger lizenzierter Inhalte und Daten verwendet, die aus vielen Kulturen stammen, die normalerweise nicht in diesen Datenbanken vertreten sind. Wenn Sie also nach etwas fragen, greift das Modell nicht auf eine Monographie aus dem 19. Jahrhundert zurück, um Ihnen zu antworten. Wir werden mehr über das Modell erfahren, wenn Latimer weitere Informationen veröffentlicht.
Eine Sache, die ein KI-Modell jedoch definitiv kann, ist, Bäume wachsen zu lassen. Künstliche Bäume. Forscher am Purdue Institute for Digital Forestry (wo ich gerne arbeiten würde, rufen Sie mich an) haben ein superkompaktes Modell entwickelt simuliert das Wachstum eines Baumes realistisch. Dies ist eines dieser Probleme, die einfach erscheinen, es aber nicht sind. Sie können das Wachstum von Bäumen simulieren, was funktioniert, wenn Sie ein Spiel oder einen Film machen, klar, aber wie sieht es mit ernsthafter wissenschaftlicher Arbeit aus? „Obwohl KI scheinbar allgegenwärtig geworden ist, hat sie sich bisher größtenteils als äußerst erfolgreich bei der Modellierung von 3D-Geometrien erwiesen, die keinen Bezug zur Natur haben“, sagte Hauptautor Bedrich Benes.
Ihr neues Modell ist nur etwa ein Megabyte groß, was für ein KI-System extrem klein ist. Aber natürlich ist die DNA noch kleiner und dichter und kodiert den gesamten Baum, von der Wurzel bis zur Knospe. Das Modell funktioniert immer noch in Abstraktionen – es ist keineswegs eine perfekte Simulation der Natur – aber es zeigt, dass die Komplexität des Baumwachstums in einem relativ einfachen Modell kodiert werden kann.
Zu guter Letzt ein Roboter von Forschern der Universität Cambridge, der Blindenschrift schneller als ein Mensch lesen kann, und zwar mit einer Genauigkeit von 90 %. Warum fragst du? Eigentlich ist es nichts für Blinde – das Team entschied, dass dies eine interessante und leicht quantifizierbare Aufgabe sei, um die Empfindlichkeit und Geschwindigkeit der Fingerspitzen von Robotern zu testen. Wenn es die Blindenschrift lesen kann, indem man einfach darüber zoomt, ist das ein gutes Zeichen! Mehr über diesen interessanten Ansatz können Sie hier lesen. Oder schauen Sie sich das Video unten an: