Die Woche in der KI: Generative KI spammt das Web

Die Woche in der KI Generative KI spammt das Web

Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine praktische Zusammenfassung der neuesten Geschichten aus der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, die wir nicht alleine behandelt haben.

Diese Woche ist SpeedyBrand, ein Unternehmen, das generative KI zur Erstellung SEO-optimierter Inhalte nutzt, mit Unterstützung von Y Combinator aus der Tarnung hervorgekommen. Es hat noch nicht viel Geld eingeworben (2,5 Millionen US-Dollar) und sein Kundenstamm ist relativ klein (etwa 50 Marken). Aber es brachte mich zum Nachdenken darüber, wie generative KI beginnt, die Struktur des Webs zu verändern.

Wie James Vincent von The Verge kürzlich in einem schrieb StückGenerative KI-Modelle machen es billiger und einfacher, Inhalte von geringerer Qualität zu generieren. Newsguard, ein Unternehmen, das Tools zur Überprüfung von Nachrichtenquellen bereitstellt, hat dies getan ausgesetzt Hunderte werbefinanzierte Websites mit allgemein klingenden Namen, die mit generativer KI erstellte Fehlinformationen enthalten.

Es stellt ein Problem für Werbetreibende dar. Viele der von Newsguard hervorgehobenen Websites scheinen ausschließlich darauf ausgelegt zu sein, programmatische Werbung oder die automatisierten Systeme zur Platzierung von Anzeigen auf Seiten zu missbrauchen. In seinem Bericht fand Newsguard fast 400 Anzeigen von 141 großen Marken, die auf 55 Junk-News-Websites erschienen.

Nicht nur Werbetreibende sollten sich Sorgen machen. Als Kyle Barr von Gizmodo weist darauf hin, kann es sein, dass nur ein einziger KI-generierter Artikel ausreicht, um Berge an Engagement hervorzurufen. Und selbst wenn jeder KI-generierte Artikel nur ein paar Dollar einbringt, ist das weniger als die Kosten für die Erstellung des Textes überhaupt – und potenzielle Werbegelder, die nicht an seriöse Websites weitergeleitet werden.

Was ist also die Lösung? Ist dort eines? Es sind ein paar Fragen, die mich zunehmend nachts wach halten. Barr schlägt vor, dass es die Aufgabe von Suchmaschinen und Werbeplattformen sei, die schlechten Akteure, die generative KI nutzen, stärker in den Griff zu bekommen und zu bestrafen. Aber angesichts der Geschwindigkeit, mit der sich das Feld entwickelt – und der unendlichen Skalierbarkeit der generativen KI – bin ich nicht davon überzeugt, dass sie mithalten können.

Natürlich sind Spam-Inhalte kein neues Phänomen und es gab bereits Wellen. Das Web hat sich angepasst. Der Unterschied besteht dieses Mal darin, dass die Eintrittsbarriere dramatisch niedrig ist – sowohl im Hinblick auf die Kosten als auch auf die Zeit, die investiert werden muss.

Vincent schlägt einen optimistischen Ton an und deutet an, dass es sich um das Web handelt Ist Wenn die KI schließlich mit Müll überschwemmt wird, könnte dies die Entwicklung besser finanzierter Plattformen vorantreiben. Ich bin mir nicht sicher. Es besteht jedoch kein Zweifel daran, dass wir uns an einem Wendepunkt befinden und dass die jetzt getroffenen Entscheidungen rund um die generative KI und ihre Ergebnisse noch einige Zeit lang Auswirkungen auf die Funktion des Webs haben werden.

Hier sind weitere bemerkenswerte KI-Geschichten der letzten Tage:

OpenAI führt GPT-4 offiziell ein: OpenAI gab diese Woche die allgemeine Verfügbarkeit von GPT-4, seinem neuesten Textgenerierungsmodell, über seine kostenpflichtige API bekannt. GPT-4 kann Text (einschließlich Code) generieren und Bild- und Texteingaben akzeptieren – eine Verbesserung gegenüber GPT-3.5, seinem Vorgänger, der nur Text akzeptierte – und schneidet bei verschiedenen professionellen und akademischen Benchmarks auf „menschlichem Niveau“ ab. Aber es ist nicht perfekt, wie wir in unserer vorherigen Berichterstattung festgestellt haben. (Mittlerweile ist die Einführung von ChatGPT als ausgefallen gemeldetaber wir werden sehen.)

„Superintelligente“ KI unter Kontrolle bringen: In anderen OpenAI-Nachrichten bildet das Unternehmen ein neues Team unter der Leitung von Ilya Sutskever, seinem Chefwissenschaftler und einem der Mitbegründer von OpenAI, um Möglichkeiten zur Steuerung und Kontrolle „superintelligenter“ KI-Systeme zu entwickeln.

Anti-Voreingenommenheitsgesetz für NYC: Nach monatelangen Verzögerungen begann New York City diese Woche mit der Durchsetzung eines Gesetzes, das Arbeitgeber, die Algorithmen zur Einstellung, Einstellung oder Beförderung von Mitarbeitern verwenden, dazu verpflichtet, diese Algorithmen einer unabhängigen Prüfung vorzulegen – und die Ergebnisse zu veröffentlichen.

Valve erteilt stillschweigend grünes Licht für KI-generierte Spiele: Ventil ausgegeben eine seltene Aussage, nachdem behauptet wurde, dass es Spiele mit KI-generierten Assets aus seinem Steam-Games-Store ablehnt. Der bekanntermaßen verschwiegene Entwickler sagte, seine Politik sei eine Weiterentwicklung und keine Haltung gegen KI.

Humane enthüllt den Ai Pin: Humane, das Startup des ehemaligen Apple-Design- und Ingenieursduos Imran Chaudhri und Bethany Bongiorno, enthüllte diese Woche Details zu seinem ersten Produkt: The Ai Pin. Wie sich herausstellt, handelt es sich bei Humanes Produkt um ein tragbares Gerät mit einem projizierten Display und KI-gestützten Funktionen – wie ein futuristisches Smartphone, aber in einem völlig anderen Formfaktor.

Warnungen zur EU-KI-Regulierung: Große Tech-Gründer, CEOs, VCs und Branchenriesen in ganz Europa haben diese Woche einen offenen Brief an die EU-Kommission unterzeichnet, in dem sie davor warnen, dass Europa die generative KI-Revolution verpassen könnte, wenn die EU Gesetze verabschiedet, die Innovationen unterdrücken.

Deepfake-Betrug macht die Runde: Kasse dieser Clip Der britische Verfechter der Verbraucherfinanzierung, Martin Lewis, hat offenbar eine von Elon Musk unterstützte Investitionsmöglichkeit in Anspruch genommen. Scheint normal zu sein, oder? Nicht genau. Es ist ein von der KI erzeugter Deepfake – und möglicherweise ein Vorgeschmack auf das von der KI erzeugte Elend, das sich rasend schnell auf unseren Bildschirmen ausbreitet.

KI-betriebene Sexspielzeuge: Lovense – vielleicht am besten bekannt für seine fernsteuerbaren Sexspielzeuge – kündigte diese Woche seinen ChatGPT Pleasure Companion an. Der „Advanced Lovense ChatGPT Pleasure Companion“ wurde als Betaversion in der Fernbedienungs-App des Unternehmens gestartet und lädt Sie ein, sich spannenden und erotischen Geschichten hinzugeben, die der Companion basierend auf dem von Ihnen ausgewählten Thema erstellt.

Andere maschinelles Lernen

Unser Forschungsrückblick beginnt mit zwei sehr unterschiedlichen Projekten der ETH Zürich. Erstens ist aiEndoscopic, eine intelligente Intubation ausgründen. In vielen Fällen ist die Intubation für das Überleben eines Patienten notwendig, es handelt sich jedoch um einen kniffligen manuellen Eingriff, der normalerweise von Spezialisten durchgeführt wird. Der intuBot nutzt Computer Vision, um eine Live-Übertragung aus Mund und Rachen zu erkennen und darauf zu reagieren und die Position des Endoskops zu steuern und zu korrigieren. Dies könnte es Menschen ermöglichen, bei Bedarf sicher zu intubieren, anstatt auf den Spezialisten warten zu müssen, was möglicherweise Leben retten könnte.

Hier erklären sie es etwas ausführlicher:

In einem völlig anderen Bereich haben Forscher der ETH Zürich auch einen zweiten Beitrag zu einem Pixar-Film geleistet, indem sie die dafür erforderliche Technologie entwickelt haben beleben Rauch und Feuer ohne der fraktalen Komplexität der Fluiddynamik zum Opfer zu fallen. Ihr Ansatz wurde bemerkt und von Disney und Pixar für den Film Elemental weiterentwickelt. Interessanterweise handelt es sich weniger um eine Simulationslösung als vielmehr um eine Stilübertragungslösung – eine clevere und scheinbar recht wertvolle Abkürzung. (Das Bild oben stammt von diesem.)

KI in der Natur ist immer interessant, aber Natur-KI in ihrer Anwendung auf die Archäologie ist es umso mehr. Forschung unter der Leitung der Yamagata-Universität Ziel war es, neue Nasca-Linien zu identifizieren – die riesigen „Geoglyphen“ in Peru. Man könnte meinen, dass sie, da sie vom Orbit aus sichtbar sind, ziemlich offensichtlich wären – aber Erosion und Baumbewuchs in den Jahrtausenden seit der Entstehung dieser mysteriösen Formationen bedeuten, dass sich eine unbekannte Anzahl gerade außer Sichtweite versteckt. Nachdem ein Deep-Learning-Modell mit Luftbildern bekannter und verdeckter Geoglyphen trainiert worden war, wurde es für andere Ansichten freigegeben und entdeckte erstaunlicherweise mindestens vier neue, wie Sie unten sehen können. Ziemlich aufregend!

Vier Nasca-Geoglyphen neu von einem KI-Agenten entdeckt.

In einem unmittelbar relevanteren Sinne findet KI-nahe Technologie immer neue Aufgaben bei der Erkennung und Vorhersage von Naturkatastrophen. Stanford-Ingenieure sind es Zusammenstellen von Daten, um zukünftige Modelle zur Waldbrandvorhersage zu trainieren mit der Durchführung von Simulationen erhitzter Luft über einem Walddach in einem 30-Fuß-Wassertank. Wenn wir die Physik von Flammen und Glut modellieren wollen, die sich über die Grenzen eines Lauffeuers hinaus ausbreiten, müssen wir sie besser verstehen, und dieses Team tut, was es kann, um dem näher zu kommen.

An der UCLA untersuchen sie, wie sich Erdrutsche vorhersagen lassen, die häufiger auftreten, wenn sich Brände und andere Umweltfaktoren ändern. Aber obwohl KI bereits mit einigem Erfolg zur Vorhersage eingesetzt wurde, zeigt sie nicht, was sie bewirkt, was bedeutet, dass eine Vorhersage nicht erklärt, ob sie auf Erosion, eine Verschiebung des Grundwasserspiegels oder tektonische Aktivität zurückzuführen ist. Ein neuer Ansatz für „überlagerbare neuronale Netze“. Die Schichten des Netzwerks verwenden zwar unterschiedliche Daten, laufen aber parallel und nicht alle zusammen, wodurch die Ausgabe etwas spezifischer wird, da die Variablen zu einem erhöhten Risiko führen. Es ist auch viel effizienter.

Google steht vor einer interessanten Herausforderung: Wie bringt man ein maschinelles Lernsystem dazu, aus gefährlichem Wissen zu lernen, es aber nicht zu verbreiten? Wenn sein Trainingsset beispielsweise das Rezept für Napalm enthält, soll es es nicht wiederholen – aber um zu wissen, dass es es nicht wiederholt, muss es wissen, was es nicht wiederholt. Ein Paradox! So ist der Technologieriese Auf der Suche nach einer Methode des „maschinellen Verlernens“ So gelingt ein solcher Balanceakt sicher und zuverlässig.

Wenn Sie einen tieferen Einblick in die Frage suchen, warum Menschen scheinbar ohne guten Grund KI-Modellen vertrauen, sind Sie in diesem Science-Editorial von Celeste Kidd (UC Berkeley) und Abeba Birhane (Mozilla) genau richtig. Es geht auf die psychologischen Grundlagen von Vertrauen und Autorität ein und zeigt, wie aktuelle KI-Agenten diese grundsätzlich als Sprungbrett nutzen, um ihren eigenen Wert zu steigern. Es ist ein wirklich interessanter Artikel, wenn Sie dieses Wochenende schlau klingen möchten.

Obwohl wir oft von der berüchtigten Fake-Schachmaschine Mechanical Turk hören, inspirierte diese Scharade die Menschen dazu, das zu erschaffen, was sie vorgab zu sein. IEEE Spectrum hat eine faszinierende Geschichte über den spanischen Physiker und Ingenieur Torres Quevedo, der einen echten mechanischen Schachspieler erschuf. Seine Fähigkeiten waren begrenzt, aber daran erkennt man, dass es real war. Manche behaupten sogar, seine Schachmaschine sei das erste „Computerspiel“ gewesen. Denkanstöße.



tch-1-tech