Hallo Leute, willkommen zum regelmäßigen KI-Newsletter von Tech. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang haben möchten, melden Sie sich hier an.
Am Montag war Anthropic-CEO Dario Amodei für einen fünfstündigen Podcast zu Gast Interview mit KI-Influencer Lex Fridman. Die beiden behandelten eine Reihe von Themen, von Zeitplänen für Superintelligenz bis hin zu Fortschritten bei Anthropics nächster Flaggschifftechnologie.
Um Ihnen den Download zu ersparen, haben wir die wichtigsten Punkte herausgesucht.
Trotz Beweis Im Gegenteil, Amodei glaubt, dass die „Skalierung“ von Modellen immer noch ein gangbarer Weg zu leistungsfähigerer KI ist. Amodei stellte klar, dass er mit der Skalierung nicht nur die zum Trainieren von Modellen verwendete Rechenmenge meint, sondern auch die Größe der Modelle – und die Größe der Trainingssätze der Modelle.
„Wahrscheinlich wird die Skalierung weitergehen, und da steckt etwas Magisches dahinter, das wir noch nicht wirklich auf theoretischer Basis erklärt haben“, sagte Amodei.
Im Gegensatz zu einigen glaubt Amodei auch nicht, dass ein Mangel an Daten eine Herausforderung für die KI-Entwicklung darstellen wird Experten. Entweder durch die Generierung synthetischer Daten oder die Extrapolation aus vorhandenen Daten werden KI-Entwickler Datenbeschränkungen „umgehen“, sagt er. (Es bleibt abzuwarten, ob die Probleme mit synthetischen Daten lösbar sind, das werde ich hier anmerken.)
Amodei tut es räumen ein, dass KI-Berechnungen in naher Zukunft wahrscheinlich teurer werden, teilweise aufgrund der Skalierung. Er geht davon aus, dass Unternehmen im nächsten Jahr Milliarden von Dollar für Cluster zum Trainieren von Modellen ausgeben werden und dass sie bis 2027 Hunderte von Milliarden Dollar ausgeben werden. (In der Tat ist OpenAI gemunkelt planen ein 100-Milliarden-Dollar-Rechenzentrum.)
Und Amodei war offen darüber, dass selbst die besten Models von Natur aus unberechenbar sind.
„Es ist einfach sehr schwer, das Verhalten eines Modells zu kontrollieren – das Verhalten eines Modells unter allen Umständen gleichzeitig zu steuern“, sagte er. „Es gibt diesen ‚Whack-a-Mole‘-Aspekt, bei dem man auf eine Sache drückt und diese anderen Dinge ebenfalls in Bewegung geraten, was man vielleicht nicht einmal bemerkt oder misst.“
Dennoch geht Amodei davon aus, dass Anthropic – oder ein Rivale – bis 2026 oder 2027 eine „superintelligente“ KI entwickeln wird – eine, die bei einer Reihe von Aufgaben „menschliches Niveau“ übertrifft. Und er macht sich Sorgen über die Auswirkungen.
„Uns gehen schnell die wirklich überzeugenden Blocker und wirklich überzeugenden Gründe aus, warum dies in den nächsten Jahren nicht passieren wird“, sagte er. „Ich mache mir Sorgen um die Wirtschaft und die Machtkonzentration. Das ist eigentlich das, worüber ich mir mehr Sorgen mache – der Machtmissbrauch.“
Gut, dass er in der Lage ist, etwas dagegen zu unternehmen.
Nachricht
Eine KI-Nachrichten-App: Der von ehemaligen Twitter-Ingenieuren ins Leben gerufene KI-Newsreader Particle soll den Lesern mithilfe der KI-Technologie helfen, die Nachrichten besser zu verstehen.
Der Autor erhebt: Writer hat 200 Millionen US-Dollar bei einem Wert von 1,9 Milliarden US-Dollar eingesammelt, um seine unternehmensorientierte generative KI-Plattform zu erweitern.
Auf Trainium aufbauen: Amazon Web Services (AWS) hat Build on Trainium gestartet, ein neues Programm, das 110 Millionen US-Dollar an Institutionen, Wissenschaftler und Studenten vergibt, die mithilfe der AWS-Infrastruktur KI erforschen.
Red Hat kauft ein Startup: IBMs Red Hat übernimmt Neural Magic, ein Startup, das KI-Modelle optimiert, um schneller auf Standardprozessoren und GPUs zu laufen.
Kostenloser Grok: X, ehemals Twitter, testet eine kostenlose Version seines KI-Chatbots Grok.
KI für den Grammy: Der Beatles-Track „Now and Then“, der mithilfe von KI verfeinert und letztes Jahr veröffentlicht wurde, wurde für zwei Grammy-Preise nominiert.
Anthropisch für die Verteidigung: Anthropic arbeitet mit dem Datenanalyseunternehmen Palantir und AWS zusammen, um US-Geheimdiensten und Verteidigungsbehörden Zugriff auf die Claude-KI-Modellfamilie von Anthropic zu ermöglichen.
Eine neue Domain: OpenAI kaufte Chat.com und erweiterte damit seine Sammlung bekannter Domainnamen.
Forschungspapier der Woche
Google behauptet, ein verbessertes KI-Modell zur Hochwasservorhersage entwickelt zu haben.
Das Modell, das auf der bisherigen Arbeit des Unternehmens in diesem Bereich aufbaut, kann Überschwemmungszustände in Dutzenden von Ländern bis zu sieben Tage im Voraus genau vorhersagen. Theoretisch kann das Modell eine Überschwemmungsvorhersage für jeden Ort auf der Erde liefern, Google weist jedoch darauf hin, dass es in vielen Regionen an historischen Daten zur Validierung mangelt.
Google bietet Experten für Katastrophenmanagement und Hydrologie eine Warteliste für den API-Zugriff auf das Modell an. Darüber hinaus stellt es Prognosen aus dem Modell zur Verfügung Hochwasserzentrum Plattform.
„Indem wir unsere Prognosen weltweit auf Flood Hub verfügbar machen … hoffen wir, einen Beitrag zur Forschungsgemeinschaft zu leisten“, schreibt das Unternehmen in einem Blogbeitrag. „Diese Daten können von erfahrenen Benutzern und Forschern genutzt werden, um weitere Studien und Analysen darüber zu liefern, wie sich Überschwemmungen auf Gemeinden auf der ganzen Welt auswirken.“
Modell der Woche
Rami Seid, ein KI-Entwickler, hat ein Minecraft-Simulationsmodell veröffentlicht, das auf einer einzelnen Nvidia RTX 4090 laufen kann.
Ähnlich wie das kürzlich veröffentlichte „Open-World“-Modell des KI-Startups Decart emuliert Seids Modell namens Lucid v1 die Spielwelt von Minecraft in Echtzeit (oder nahezu in Echtzeit). Mit einer Milliarde Parametern erfasst Lucid v1 Tastatur- und Mausbewegungen, generiert Frames und simuliert so die gesamte Physik und Grafik.
Lucid v1 unterliegt den gleichen Einschränkungen wie andere Spielesimulationsmodelle. Die Auflösung ist ziemlich niedrig und man neigt dazu, das Level-Layout schnell zu „vergessen“ – wenn man seinen Charakter umdreht, sieht man eine neu arrangierte Szene.
Aber Seid und ihr Partner Ollin Boer Bohan sagen, dass sie planen, das Modell weiterzuentwickeln, das verfügbar ist herunterladen und unterstützt die Online-Demo Hier.
Wundertüte
DeepMind, Googles führendes KI-Labor, hat den Code für AlphaFold 3 veröffentlicht, sein KI-gestütztes Proteinvorhersagemodell.
AlphaFold 3 wurde vor sechs Monaten angekündigt, DeepMind hielt den Code jedoch kontrovers zurück. Stattdessen ermöglichte es den Zugriff über einen Webserver, der die Anzahl und Art der Vorhersagen, die Wissenschaftler machen konnten, einschränkte.
Kritiker sahen darin einen Versuch, die kommerziellen Interessen von DeepMind auf Kosten der Reproduzierbarkeit zu schützen. Das DeepMind-Spin-off Isomorphic Labs nutzt AlphaFold 3, das Proteine zusammen mit anderen Molekülen modellieren kann, für die Arzneimittelforschung.
Jetzt können Wissenschaftler das Modell verwenden, um beliebige Vorhersagen zu treffen – einschließlich des Verhaltens von Proteinen in Gegenwart potenzieller Medikamente. Wissenschaftler mit akademischer Ausrichtung können dies tun Fordern Sie hier den Zugangscode an.