Hallo Leute und willkommen beim regelmäßigen KI-Newsletter von Tech.
Diese Woche hat der Oberste Gerichtshof der USA im Fall AI die sogenannte „Chevron-Deference“ aufgehoben. Dabei handelt es sich um ein 40 Jahre altes Urteil zur Befugnis von Bundesbehörden, das Gerichte dazu verpflichtete, sich der Auslegung von Gesetzen des Kongresses durch die Behörden zu beugen.
Die Chevron-Regelung erlaubte es den Behörden, ihre eigenen Regeln zu erlassen, als der Kongress einige Aspekte seiner Gesetze unklar ließ. Nun wird von den Gerichten erwartet, dass sie ihr eigenes Urteil fällen – und die Folgen könnten weitreichend sein. Scott Rosenberg von Axios schreibt dass der Kongress – kaum der Funktionalität Gremium – muss heute mit seiner Gesetzgebung tatsächlich versuchen, die Zukunft vorherzusagen, da die Behörden grundlegende Regeln nicht mehr auf neue Durchsetzungsumstände anwenden können.
Und das könnte die Versuche einer bundesweiten KI-Regulierung endgültig zunichte machen.
Der Kongress hatte bereits Schwierigkeiten, einen grundlegenden politischen Rahmen für die KI zu verabschieden – und zwar so sehr, dass sich die Regulierungsbehörden der Bundesstaaten beider Lager gezwungen sahen, einzugreifen. Nun muss jede Regelung, die er erlässt, sehr spezifisch sein, wenn sie rechtlichen Anfechtungen standhalten soll – eine scheinbar unlösbare Aufgabe angesichts der Geschwindigkeit und Unvorhersehbarkeit, mit der sich die KI-Branche bewegt.
Richterin Elena Kagan brachte in ihrer mündlichen Verhandlung ausdrücklich das Thema KI zur Sprache:
Stellen wir uns vor, der Kongress verabschiedet ein Gesetz zur künstlichen Intelligenz und es gibt alle möglichen Delegationen. Es liegt einfach in der Natur der Dinge und insbesondere der Natur des Themas, dass es alle möglichen Stellen gibt, wo der Kongress, obwohl es keine explizite Delegation gibt, tatsächlich eine Lücke gelassen hat. … [D]Wollen wir, dass Gerichte diese Lücke schließen, oder wollen wir, dass eine Agentur diese Lücke schließt?
Diese Lücke werden nun die Gerichte schließen. Oder die Bundesgesetzgeber werden das Vorhaben als sinnlos erachten und ihre KI-Gesetze auf Eis legen. Was auch immer das Ergebnis sein mag, die Regulierung der KI in den USA ist gerade um ein Vielfaches schwieriger geworden.
Nachricht
Die Umweltkosten von Google durch KI: Google hat seinen Umweltbericht 2024 veröffentlicht, ein über 80 Seiten langes Dokument, das die Bemühungen des Unternehmens beschreibt, Technologie auf Umweltprobleme anzuwenden und seine negativen Auswirkungen zu mildern. Allerdings weicht es der Frage aus, wie viel Energie Googles KI verbraucht, schreibt Devin. (KI ist bekanntermaßen stromhungrig.)
Figma deaktiviert Designfunktion: Dylan Field, CEO von Figma, sagt, dass Figma seine KI-Funktion „Make Design“ vorübergehend deaktivieren wird. Diese soll das Design der Wetter-App von Apple kopiert haben.
Meta ändert sein AI-Label: Nachdem Meta im Mai damit begonnen hatte, Fotos mit dem Etikett „Made with AI“ zu versehen, beschwerten sich Fotografen, das Unternehmen habe diese Etiketten versehentlich auf echte Fotos geklebt. Um die Kritiker zu beschwichtigen, ändert Meta das Etikett nun in allen seinen Apps in „KI-Info“, berichtet Ivan.
Roboterkatzen, -hunde und -vögel: Brian schreibt darüber, wie der Staat New York inmitten einer „Epidemie der Einsamkeit“ Tausende Robotertiere an ältere Menschen verteilt.
Apple bringt KI in das Vision Pro: Apples Pläne gehen über die bereits angekündigten Apple Intelligence-Einführungen auf iPhone, iPad und Mac hinaus. Laut Mark Gurman von Bloomberg arbeitet das Unternehmen auch daran, diese Funktionen auf seine Mixed-Reality-Headsets Vision Pro zu bringen.
Forschungspapier der Woche
Textgenerierende Modelle wie GPT-4o von OpenAI sind zu einem festen Bestandteil der Technologie geworden. Selten sind die Apps, die nicht Nutzen Sie sie heutzutage für Aufgaben, die vom Verfassen von E-Mails bis zum Schreiben von Code reichen.
Doch trotz der Popularität dieser Modelle ist die Frage, wie diese Modelle „menschlich klingende Texte verstehen“ und generieren, noch nicht geklärt. In dem Bemühen, die Schichten aufzudecken, haben Forscher der Northeastern University sah bei der Tokenisierung, also dem Aufteilen von Text in Einheiten, die Token mit denen die Modelle leichter arbeiten können.
Heutige textgenerierende Modelle verarbeiten Text als eine Reihe von Token, die aus einem festgelegten „Token-Vokabular“ stammen, wobei ein Token einem einzelnen Wort („Fisch“) oder einem Teil eines größeren Wortes („Salz“ und „Mon“ in „Lachs“) entsprechen kann. Das Vokabular der Token, die einem Modell zur Verfügung stehen, wird normalerweise bestimmt Vor Training, basierend auf den Eigenschaften der Daten, die zum Training verwendet wurden. Aber die Forscher fanden Beweise dafür, dass Modelle auch eine implizites Vokabular das Token-Gruppen – beispielsweise aus mehreren Token bestehende Wörter wie „nordöstlich“ und die Phrase „Hals- und Beinbruch“ – semantisch bedeutsamen „Einheiten“ zuordnet.
Auf der Grundlage dieser Erkenntnisse entwickelten die Forscher eine Technik, um das implizite Vokabular jedes offenen Modells zu „erkunden“. Aus Metas Llama 2 extrahierten sie Ausdrücke wie „Lancaster“, „WM-Spieler“ und „Royal Navy“, aber auch weniger bekannte Begriffe wie „Bundesliga-Spieler“.
Die Arbeit wurde noch nicht von Experten begutachtet, aber die Forscher sind überzeugt, dass sie ein erster Schritt zum Verständnis der Entstehung lexikalischer Repräsentationen in Modellen sein könnte – und als nützliches Instrument zur Aufdeckung dessen dienen könnte, was ein bestimmtes Modell „weiß“.
Modell der Woche
Ein Meta-Forschungsteam hat mehrere Modelle trainiert, um aus Textbeschreibungen 3D-Assets (also 3D-Formen mit Texturen) zu erstellen, die für den Einsatz in Projekten wie Apps und Videospielen geeignet sind. Obwohl es viele formgenerierende Modelle gibt, behauptet Meta, dass sie „auf dem neuesten Stand“ sind und physikalisch basiertes Rendering unterstützen, mit dem Entwickler Objekte „neu beleuchten“ können, um den Anschein einer oder mehrerer Lichtquellen zu erwecken.
Die Forscher kombinierten zwei Modelle, AssetGen und TextureGen, die von Metas Emu-Bildgenerator inspiriert waren, in einer einzigen Pipeline namens 3DGen, um Formen zu generieren. AssetGen wandelt Textaufforderungen (z. B. „ein T-Rex trägt einen grünen Wollpullover“) in ein 3D-Netz um, während TextureGen die „Qualität“ des Netzes erhöht und eine Textur hinzufügt, um die endgültige Form zu erzeugen.
Der 3DGen, der auch zum Neutexturieren vorhandener Formen verwendet werden kann, benötigt von Anfang bis Ende etwa 50 Sekunden, um eine neue Form zu generieren.
„Durch Kombinieren [these models’] Stärken, 3DGen erreicht eine sehr hochwertige 3D-Objektsynthese aus Textaufforderungen in weniger als einer Minute“, schrieben die Forscher in einem Fachartikel„Bei der Beurteilung durch professionelle 3D-Künstler ist die Ausgabe von 3DGen den Alternativen der Branche in den meisten Fällen vorzuziehen, insbesondere bei komplexen Eingabeaufforderungen.“
Meta scheint bereit zu sein, Tools wie 3DGen in seine Metaverse-Spieleentwicklungsbemühungen zu integrieren. Laut einer Jobangebotemöchte das Unternehmen VR-, AR- und Mixed-Reality-Spiele erforschen und Prototypen entwickeln, die mit Hilfe generativer KI-Technologie erstellt werden – darunter vermutlich auch benutzerdefinierte Formgeneratoren.
Wundertüte
Aufgrund der im letzten Monat angekündigten Partnerschaft der beiden Unternehmen könnte Apple einen Beobachtersitz im Vorstand von OpenAI erhalten.
Bloomberg Berichte dass Phil Schiller, Apples leitender Angestellter und verantwortlich für die Leitung des App Store und von Apple-Events, dem Vorstand von OpenAI als zweiter Beobachter nach Dee Templeton von Microsoft beitreten wird.
Sollte es zu diesem Schritt kommen, wäre dies eine bemerkenswerte Machtdemonstration seitens Apple, das in diesem Jahr die KI-gestützte Chatbot-Plattform ChatGPT von OpenAI als Teil einer breiteren Palette von KI-Funktionen in viele seiner Geräte integrieren will.
Apple wird nicht Zahlung OpenAI für die ChatGPT-Integration, angeblich mit dem Argument, dass die PR-Präsenz genauso wertvoll wie – oder sogar wertvoller als – Bargeld sei. Tatsächlich könnte OpenAI am Ende zahlen Apfel; Apple erwägt angeblich einen Deal, bei dem das Unternehmen einen Anteil an den Einnahmen aus allen Premium-ChatGPT-Funktionen erhält, die OpenAI auf Apple-Plattformen bringt.
Wie mein Kollege Devin Coldewey bemerkte, bringt das Microsoft, den engen Partner und Hauptinvestor von OpenAI, in die missliche Lage, Apples ChatGPT-Integration effektiv zu subventionieren – ohne viel dafür zu bekommen. Was Apple will, bekommt es offenbar – auch wenn das zu Streitigkeiten führt, die seine Partner beilegen müssen.