Diese Woche in der KI: Generative KI und das Problem der Vergütung von Urhebern

Diese Woche in der KI Generative KI und das Problem

Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine praktische Zusammenfassung der neuesten Geschichten aus der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, die wir nicht alleine behandelt haben.

Übrigens – Tech plant, bald einen KI-Newsletter zu veröffentlichen. Bleiben Sie dran.

Diese Woche haben in AI acht bekannte US-Zeitungen des Investmentriesen Alden Global Capital, darunter die New York Daily News, Chicago Tribune und Orlando Sentinel, OpenAI und Microsoft wegen Urheberrechtsverletzung im Zusammenhang mit der Nutzung generativer KI-Technologie durch die Unternehmen verklagt. Sie werfen, wie die New York Times in ihrer laufenden Klage gegen OpenAI, OpenAI und Microsoft vor, ihr geistiges Eigentum ohne Erlaubnis oder Entschädigung zu stehlen, um generative Modelle wie GPT-4 zu entwickeln und zu kommerzialisieren.

„Wir haben Milliarden von Dollar ausgegeben, um Informationen zu sammeln und in unseren Publikationen über Neuigkeiten zu berichten, und wir können nicht zulassen, dass OpenAI und Microsoft das große Tech-Spielbuch erweitern, unsere Arbeit zu stehlen, um auf unsere Kosten eigene Geschäfte aufzubauen“, sagte Frank Pine sagte der Chefredakteur, der Aldens Zeitungen betreut, in einer Erklärung.

Angesichts der bestehenden Partnerschaften von OpenAI mit Verlagen und der Zurückhaltung, das gesamte Geschäftsmodell davon abhängig zu machen, scheint die Klage wahrscheinlich mit einem Vergleich und einer Lizenzvereinbarung zu enden Fair-Use-Argument. Aber was ist mit dem Rest der Content-Ersteller, deren Werke ohne Bezahlung in die Model-Schulung gesteckt werden?

Offenbar denkt OpenAI darüber nach.

Eine kürzlich veröffentlichte Studie Papier Co-Autor Boaz Barak, ein Wissenschaftler im Superalignment-Team von OpenAI, schlägt einen Rahmen vor, um Urheberrechtsinhaber „proportional zu ihren Beiträgen zur Erstellung von KI-generierten Inhalten“ zu entschädigen. Wie? Durch Kooperative Spieltheorie.

Das Framework bewertet, inwieweit der Inhalt eines Trainingsdatensatzes – z. B. Text, Bilder oder andere Daten – die Generierung eines Modells beeinflusst, indem es ein spieltheoretisches Konzept verwendet, das als bekannt ist Shapley-Wert. Anschließend wird auf der Grundlage dieser Bewertung der „rechtmäßige Anteil“ (dh die Entschädigung) der Inhaltseigentümer ermittelt.

Nehmen wir an, Sie haben ein bildgenerierendes Modell, das mit Kunstwerken von vier Künstlern trainiert wurde: John, Jacob, Jack und Jebediah. Sie bitten ihn, eine Blume im Stil von Jack zu zeichnen. Mit dem Framework können Sie den Einfluss der Werke jedes Künstlers auf die vom Modell erzeugte Kunst und damit die Vergütung bestimmen, die jeder erhalten sollte.

Dort Ist Ein Nachteil des Frameworks ist jedoch, dass es rechenintensiv ist. Die Problemumgehungen der Forscher basieren eher auf Schätzungen der Entschädigung als auf genauen Berechnungen. Würde das die Content-Ersteller zufriedenstellen? Ich bin mir nicht sicher. Wenn OpenAI es eines Tages in die Praxis umsetzt, werden wir es sicherlich herausfinden.

Hier sind einige andere bemerkenswerte KI-Geschichten der letzten Tage:

  • Microsoft bekräftigt Verbot der Gesichtserkennung: In den Nutzungsbedingungen für Azure OpenAI Service, Microsofts vollständig verwalteter Wrapper für die OpenAI-Technologie, wurde eine Formulierung hinzugefügt, die deutlicher verbietet, dass Integrationen „durch oder für“ Polizeibehörden zur Gesichtserkennung in den USA verwendet werden
  • Die Natur von KI-nativen Startups: KI-Startups stehen vor anderen Herausforderungen als ein typisches Software-as-a-Service-Unternehmen. Das war die Botschaft von Rudina Seseri, Gründerin und geschäftsführende Gesellschafterin von Glasswing Ventures, letzte Woche beim Tech Early Stage Event in Boston; Ron hat die ganze Geschichte.
  • Anthropic stellt einen Businessplan vor: Das KI-Startup Anthropic bringt einen neuen kostenpflichtigen Plan für Unternehmen sowie eine neue iOS-App auf den Markt. Team – der Unternehmensplan – bietet Kunden höher priorisierten Zugriff auf die Claude 3-Familie generativer KI-Modelle von Anthropic sowie zusätzliche Verwaltungs- und Benutzerverwaltungskontrollen.
  • CodeWhisperer nicht mehr: Amazon CodeWhisperer ist jetzt Q-Entwicklerein Teil der Q-Familie geschäftsorientierter generativer KI-Chatbots von Amazon. Q Developer ist über AWS verfügbar und hilft Entwicklern bei einigen Aufgaben, die sie im Laufe ihrer täglichen Arbeit erledigen, etwa beim Debuggen und Aktualisieren von Apps – ähnlich wie CodeWhisperer.
  • Verlassen Sie einfach Sam’s Club: Der zu Walmart gehörende Sam’s Club sagt, dass er auf KI setzt, um seine „Ausstiegstechnologie“ zu beschleunigen. Anstatt vom Filialpersonal zu verlangen, beim Verlassen eines Ladens die Einkäufe der Mitglieder anhand ihrer Quittungen zu überprüfen, können Sam’s Club-Kunden, die entweder an einer Kasse oder über die mobile Scan & Go-App bezahlen, jetzt bestimmte Ladenstandorte verlassen, ohne dass ihre Einkäufe noch einmal überprüft werden .
  • Fischernte, automatisiert: Fisch zu ernten ist von Natur aus eine chaotische Angelegenheit. Shinkei arbeitet daran, es mit einem automatisierten System zu verbessern, das den Fisch humaner und zuverlässiger versendet, was zu einer völlig anderen Meeresfrüchtewirtschaft führen könnte, berichtet Devin.
  • Yelps KI-Assistent: Yelp kündigte diese Woche einen neuen KI-gestützten Chatbot für Verbraucher an – laut Angaben des Unternehmens basierend auf OpenAI-Modellen – der ihnen dabei hilft, mit relevanten Unternehmen für ihre Aufgaben in Kontakt zu treten (z. B. Installation von Beleuchtungskörpern, Modernisierung von Außenbereichen usw.). Das Unternehmen führt den KI-Assistenten in seiner iOS-App unter der Registerkarte „Projekte“ ein und plant, ihn noch in diesem Jahr auf Android auszuweiten.

Mehr maschinelles Lernen

Bildnachweis: US-Energieministerium

Klingt so, als gäbe es das Eine ziemliche Party im Argonne National Lab Diesen Winter brachten sie hundert Experten aus dem KI- und Energiesektor zusammen, um darüber zu sprechen, wie die sich schnell entwickelnde Technologie für die Infrastruktur und Forschung und Entwicklung des Landes in diesem Bereich hilfreich sein könnte. Der resultierende Bericht ist mehr oder weniger das, was man von diesem Publikum erwarten würde: viel Zukunftsmusik, aber dennoch informativ.

Mit Blick auf die Kernenergie, das Netz, das Kohlenstoffmanagement, die Energiespeicherung und Materialien waren die Themen, die sich bei diesem Treffen ergaben, erstens, dass Forscher Zugang zu leistungsstarken Rechenwerkzeugen und -ressourcen benötigen; zweitens lernen, die Schwachstellen der Simulationen und Vorhersagen zu erkennen (einschließlich derjenigen, die durch die erste Sache ermöglicht werden); Drittens besteht der Bedarf an KI-Tools, die Daten aus mehreren Quellen und in vielen Formaten integrieren und zugänglich machen können. Wir haben all diese Dinge in der gesamten Branche auf unterschiedliche Weise gesehen, daher ist es keine große Überraschung, aber auf Bundesebene wird nichts getan, ohne dass ein paar Genies einen Artikel herausbringen, also ist es gut, es zu Protokoll zu geben.

Georgia Tech und Meta arbeiten teilweise daran mit einer großen neuen Datenbank namens OpenDAC, einem Stapel von Reaktionen, Materialien und Berechnungen, die Wissenschaftlern dabei helfen sollen, Kohlenstoffabscheidungsprozesse einfacher zu gestalten. Der Schwerpunkt liegt auf metallorganischen Gerüsten, einem vielversprechenden und beliebten Materialtyp zur Kohlenstoffabscheidung, bei dem es jedoch Tausende von Variationen gibt, die noch nicht umfassend getestet wurden.

Das Georgia Tech-Team hat sich mit dem Oak Ridge National Lab und Metas FAIR zusammengetan, um quantenchemische Wechselwirkungen an diesen Materialien zu simulieren. Dabei wurden rund 400 Millionen Rechenstunden benötigt – weit mehr, als eine Universität problemlos aufbringen kann. Hoffentlich hilft es den Klimaforschern, die auf diesem Gebiet arbeiten. Es ist alles hier dokumentiert.

Wir hören viel über KI-Anwendungen im medizinischen Bereich, obwohl die meisten eine sozusagen beratende Funktion haben und Experten dabei helfen, Dinge zu bemerken, die sie sonst vielleicht nicht gesehen hätten, oder Muster zu erkennen, die ein Techniker Stunden gebraucht hätte, um sie zu finden. Das liegt zum Teil daran, dass diese Modelle des maschinellen Lernens lediglich Zusammenhänge zwischen Statistiken finden, ohne zu verstehen, was was verursacht oder dazu geführt hat. Forscher aus Cambridge und der Ludwig-Maximilians-Universität München arbeiten daran, da die Überwindung grundlegender Korrelationsbeziehungen bei der Erstellung von Behandlungsplänen äußerst hilfreich sein könnte.

Ziel der von Professor Stefan Feuerriegel von der LMU geleiteten Arbeit ist es, Modelle zu erstellen, die kausale Mechanismen und nicht nur Korrelationen identifizieren können: „Wir geben der Maschine Regeln vor, um die kausale Struktur zu erkennen und das Problem richtig zu formalisieren.“ Dann muss die Maschine lernen, die Auswirkungen von Eingriffen zu erkennen und sozusagen zu verstehen, wie sich die realen Konsequenzen in den Daten widerspiegeln, die in die Computer eingespeist werden“, sagte er. Für sie steht es noch am Anfang, und sie sind sich dessen bewusst, aber sie glauben, dass ihre Arbeit Teil einer wichtigen jahrzehntelangen Entwicklungsperiode ist.

Drüben an der University of Pennsylvania, Doktorand Ro Encarnación arbeitet an einem neuen Blickwinkel im Bereich der „algorithmischen Gerechtigkeit“. Wir haben in den letzten 7-8 Jahren Pionierarbeit (hauptsächlich von Frauen und farbigen Menschen) gesehen. Ihre Arbeit konzentriert sich mehr auf die Benutzer als auf die Plattformen und dokumentiert das, was sie „Emergent Auditing“ nennt.

Was tun Benutzer, wenn Tiktok oder Instagram einen irgendwie rassistischen Filter oder einen Bildgenerator veröffentlichen, der etwas Aufsehen erregendes macht? Beschweren Sie sich zwar, aber sie nutzen es auch weiterhin und lernen, die darin kodierten Probleme zu umgehen oder sogar zu verschärfen. Es ist vielleicht keine „Lösung“, wie wir es uns vorstellen, aber es zeigt die Vielfalt und Widerstandsfähigkeit der Benutzerseite der Gleichung – sie ist nicht so fragil oder passiv, wie Sie vielleicht denken.

tch-1-tech