Diese Woche in der KI: Unternehmen unterwerfen sich freiwillig den KI-Richtlinien – vorerst

Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine praktische Zusammenfassung der neuesten Geschichten aus der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, die wir nicht alleine behandelt haben.

Diese Woche haben wir im Bereich KI gesehen, wie sich OpenAI, Anthropic, Google, Inflection, Microsoft, Meta und Amazon im Vorfeld einer geplanten Executive Order der Biden-Regierung freiwillig dazu verpflichtet haben, gemeinsame KI-Sicherheits- und Transparenzziele zu verfolgen.

Wie mein Kollege Devin Coldewey schreibt, werden hier keine Regeln oder Durchsetzungsmaßnahmen vorgeschlagen – die vereinbarten Praktiken sind rein freiwillig. Aber die Zusagen geben in groben Zügen die KI-Regulierungsansätze und -Richtlinien an, die jeder Anbieter sowohl in den USA als auch im Ausland für änderbar halten könnte.

Unter anderem haben sich die Unternehmen freiwillig bereit erklärt, vor der Veröffentlichung Sicherheitstests von KI-Systemen durchzuführen, Informationen über KI-Abwehrtechniken auszutauschen und Wasserzeichentechniken zu entwickeln, die die Identifizierung von KI-generierten Inhalten erleichtern. Sie sagten auch, dass sie in Cybersicherheit investieren würden, um private KI-Daten zu schützen und die Meldung von Schwachstellen zu erleichtern, und dass sie der Forschung zu gesellschaftlichen Risiken wie systemischer Voreingenommenheit und Datenschutzproblemen Priorität einräumen würden.

Die Zusagen sind sicherlich ein wichtiger Schritt – auch wenn sie nicht durchsetzbar sind. Man fragt sich jedoch, ob die Unterzeichner Hintergedanken haben.

Berichten zufolge hat OpenAI ein internes Richtlinienmemo verfasst, aus dem hervorgeht, dass das Unternehmen die Idee unterstützt, von jedem, der KI-Systeme entwickeln möchte, staatliche Lizenzen zu verlangen. CEO Sam Altman brachte die Idee erstmals bei einer Anhörung im US-Senat im Mai zur Sprache, bei der er die Gründung einer Agentur unterstützte, die Lizenzen für KI-Produkte vergeben und diese widerrufen könnte, falls jemand gegen festgelegte Regeln verstößt.

In einem kürzlichen Interview mit der Presse betonte Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, dass OpenAI nicht auf Lizenzen dränge und dass das Unternehmen nur Lizenzierungssysteme für KI-Modelle unterstütze, die leistungsfähiger seien als OpenAIs aktuelles GPT-4. Aber staatlich ausgestellte Lizenzen, sollten sie in der von OpenAI vorgeschlagenen Weise umgesetzt werden, bereiten die Bühne für einen möglichen Konflikt mit Start-ups und Open-Source-Entwicklern, die sie möglicherweise als Versuch betrachten, es anderen zu erschweren, in diesen Bereich einzudringen.

Ich denke, Devin hat es am treffendsten ausgedrückt, als er es mir als „bei einem Rennen Nägel auf die Straße hinter ihnen fallenlassen“ beschrieb. Zumindest verdeutlicht es die Doppelzüngigkeit von KI-Unternehmen, die hinter den Kulissen versuchen, die Regulierungsbehörden zu besänftigen und gleichzeitig die Politik zu ihren Gunsten zu gestalten (in diesem Fall kleine Herausforderer zu benachteiligen).

Es ist ein besorgniserregender Zustand. Aber wenn sich die politischen Entscheidungsträger anstrengen, besteht noch Hoffnung auf ausreichende Schutzmaßnahmen ohne unangemessene Einmischung des privaten Sektors.

Hier sind weitere bemerkenswerte KI-Geschichten der letzten Tage:

  • Der Vertrauens- und Sicherheitschef von OpenAI tritt zurück: Dave Willner, ein Branchenveteran und Leiter für Vertrauen und Sicherheit bei OpenAI, gab in einem bekannt auf LinkedIn posten dass er den Job aufgegeben und in eine beratende Funktion gewechselt ist. OpenAI sagte in einer Erklärung, dass es einen Ersatz sucht und dass CTO Mira Murati das Team interimistisch leiten wird.
  • Angepasste Anweisungen für ChatGPT: In weiteren OpenAI-Nachrichten hat das Unternehmen benutzerdefinierte Anweisungen für ChatGPT-Benutzer eingeführt, damit diese nicht bei jeder Interaktion mit dem Chatbot dieselben Anweisungen an den Chatbot schreiben müssen.
  • Google-KI zum Verfassen von Nachrichten: Google testet ein Tool, das KI zum Schreiben von Nachrichten nutzt, und hat damit begonnen, es in Veröffentlichungen vorzuführen, heißt es ein neuer Bericht von der New York Times. Der Technologieriese hat das KI-System der New York Times, der Washington Post und dem Eigentümer des Wall Street Journal, News Corp., vorgestellt.
  • Apple testet einen ChatGPT-ähnlichen Chatbot: Laut a entwickelt Apple KI, um OpenAI, Google und andere herauszufordern neuer Bericht von Mark Gurman von Bloomberg. Konkret hat der Technologieriese einen Chatbot entwickelt, den einige Ingenieure intern als „Apple GPT“ bezeichnen.
  • Meta veröffentlicht Llama 2: Meta stellte eine neue Familie von KI-Modellen vor, Lama 2, entwickelt, um Apps nach dem Vorbild von OpenAIs ChatGPT, Bing Chat und anderen modernen Chatbots zu betreiben. Basierend auf einer Mischung öffentlich verfügbarer Daten behauptet Meta, dass sich die Leistung von Llama 2 im Vergleich zur vorherigen Generation von Llama-Modellen erheblich verbessert hat.
  • Autoren protestieren gegen generative KI: Generative KI-Systeme wie ChatGPT werden auf öffentlich zugänglichen Daten, einschließlich Büchern, trainiert – und nicht alle Ersteller von Inhalten sind mit der Vereinbarung zufrieden. In einem offenen Brief, unterzeichnet von mehr als 8.500 Autoren von Belletristik, Sachbüchern und Poesie werden die Technologieunternehmen hinter großen Sprachmodellen wie ChatGPT, Bard, LLaMa und anderen zur Verantwortung gezogen, weil sie ihre Schriften ohne Erlaubnis oder Vergütung nutzen.
  • Microsoft bringt Bing Chat ins Unternehmen: Auf seiner jährlichen Inspire-Konferenz kündigte Microsoft Bing Chat Enterprise an, eine Version seines KI-gestützten Chatbots Bing Chat mit geschäftsorientierten Datenschutz- und Governance-Kontrollen. Bei Bing Chat Enterprise werden Chatdaten nicht gespeichert, Microsoft kann die Mitarbeiter- oder Geschäftsdaten eines Kunden nicht einsehen und Kundendaten werden nicht zum Trainieren der zugrunde liegenden KI-Modelle verwendet.

Mehr maschinelles Lernen

Technisch gesehen war dies auch eine Neuigkeit, aber es verdient hier im Forschungsbereich Erwähnung zu finden. Fable Studios, die zuvor CG- und 3D-Kurzfilme für VR und andere Medien produzierten, präsentierten ein KI-Modell namens Showrunner, das (nach eigenen Angaben) eine ganze TV-Show schreiben, Regie führen, darin mitspielen und schneiden kann – in ihrer Demo war es South Park.

Ich bin da zwiegespalten. Einerseits denke ich, dass es ziemlich geschmacklos ist, dies überhaupt zu verfolgen, geschweige denn während eines großen Hollywood-Streiks, bei dem es um Entschädigungs- und KI-Themen geht. Obwohl CEO Edward Saatchi sagte, er glaube, dass das Tool die Macht in die Hände der Schöpfer lege, lässt sich auch das Gegenteil behaupten. Jedenfalls kam es in der Branche nicht besonders gut an.

Wenn andererseits jemand auf der kreativen Seite (wie Saatchi) diese Fähigkeiten nicht erforscht und demonstriert, werden sie von anderen erforscht und demonstriert, die weniger Hemmungen haben, sie zu nutzen. Auch wenn die Behauptungen, die Fable macht, im Vergleich zu dem, was sie tatsächlich zeigten, etwas weitreichend sind (was gravierende Einschränkungen mit sich bringt), ähnelt es dem ursprünglichen DALL-E darin, dass es Diskussionen und tatsächlich Besorgnis hervorrief, obwohl es keinen Ersatz für einen echten Künstler darstellte. KI wird auf die eine oder andere Weise einen Platz in der Medienproduktion einnehmen – aber aus einer ganzen Reihe von Gründen sollte sie mit Vorsicht angegangen werden.

Auf der politischen Seite hatten wir vor einiger Zeit das Gesetz zur Genehmigung der Landesverteidigung Ich werde (wie üblich) einige wirklich lächerliche politische Änderungen durchziehen, die nichts mit der Verteidigung zu tun haben. Dazu gehörte jedoch auch die Ergänzung, dass die Regierung eine Veranstaltung veranstalten muss, bei der Forscher und Unternehmen ihr Bestes geben können, um KI-generierte Inhalte zu erkennen. So etwas nähert sich definitiv dem Niveau einer „nationalen Krise“ an, also ist es wahrscheinlich gut, dass das hier reingeschmuggelt wurde.

Drüben bei Disney ResearchSie versuchen immer, eine Brücke zwischen dem Digitalen und dem Realen zu schlagen – vermutlich für Parkzwecke. In diesem Fall haben sie eine Möglichkeit entwickelt, virtuelle Bewegungen einer Figur oder Bewegungserfassung (z. B. für einen CG-Hund in einem Film) auf einen tatsächlichen Roboter abzubilden, selbst wenn dieser Roboter eine andere Form oder Größe hat. Es basiert auf zwei Optimierungssystemen, die sich gegenseitig darüber informieren, was ideal und was möglich ist, so etwas wie ein kleines Ego und ein Über-Ich. Dies sollte es viel einfacher machen, Roboterhunde dazu zu bringen, sich wie normale Hunde zu verhalten, aber es ist natürlich auch auf andere Dinge übertragbar.

Und wir hoffen, dass KI uns dabei helfen kann, die Welt vom Meeresbodenabbau nach Mineralien fernzuhalten, denn das ist definitiv eine schlechte Idee. Eine multiinstitutionelle Einrichtung In einer Studie wurde die Fähigkeit der KI, Signale von Rauschen zu unterscheiden, genutzt, um den Standort wertvoller Mineralien auf der ganzen Welt vorherzusagen. Wie sie in der Zusammenfassung schreiben:

In dieser Arbeit befassen wir uns mit der Komplexität und der inhärenten „Unordnung“ der miteinander verflochtenen geologischen, chemischen und biologischen Systeme unseres Planeten, indem wir maschinelles Lernen einsetzen, um Muster zu charakterisieren, die in der Multidimensionalität des Mineralvorkommens und der Mineralassoziationen eingebettet sind.

Die Studie hat tatsächlich Standorte von Uran, Lithium und anderen wertvollen Mineralien vorhergesagt und bestätigt. Und wie wäre es damit zum Abschluss: Das System „wird unser Verständnis der Mineralisierung und der mineralisierenden Umgebungen auf der Erde, in unserem Sonnensystem und im Laufe der Zeit verbessern.“ Eindrucksvoll.

tch-1-tech