Wie Deepseek die KI -Landschaft von Silicon Valley veränderte

Das chinesische KI-Labor Deepseek provozierte das erste Silicon Valley-Ausflus von 2025, nachdem er offene Versionen von KI-Modellen veröffentlicht hatte, die mit der besten Technologie Openai, Meta und Google konkurrieren.

Deepseek behauptet, seine Modelle hocheffizient und schnell aufgebaut zu haben, und stellt diese Modelle zu einem Bruchteil der Preisanlagen der amerikanischen KI -Unternehmen zur Verfügung. Die Entwicklung hat nicht nur Tech -Giganten, sondern auch die höchsten Ebenen der US -Regierung geklappt, die befürchten, dass China im KI -Wettrüsten voranschreitet.

„Ich wäre nicht überrascht, wenn viele AI-Labors in einem Interview mit Tech Kriegsräume im Laufe von Kriegsräumen im Gange haben“, sagte Robert Nishihara.

Der Aufstieg von Deepseek markiert einen Beugungspunkt für die KI -Landschaft des Silicon Valley. KI -CEOs, Gründer, Forscher und Investoren erzählen Tech, dass Deepseeks Modelle große Auswirkungen auf die amerikanische KI -Politik haben. Darüber hinaus sagen diese Experten, dass die Modelle als Indikator für die Beschleunigungsrate des KI -Fortschritts dienen.

„Natürlich [DeepSeek] Wurde überdrüssig “, sagte Ravid Shwartz-Ziv, Assistenzprofessor am NYU-Zentrum für Data Science, gegenüber Tech. „Aber es ist immer noch sehr interessant, und es gibt viel, was wir daraus nehmen können.“

Neue Möglichkeiten, KI zum Nachdenken zu bringen

Eine der wichtigsten Innovationen von Deepseek bei der Schaffung seines R1-Modells war „Pure verstärkend Learning“, ein Versuchs- und Error-Ansatz, so Workera-CEO und Stanford-Adjunct-Dozent Kian Katanforoosh.

Katanforoosh verglich Deepseeks Durchbruch mit einem Kind, das herausfand, dass sie sich nicht selbst verbrannten.

“[A kid] Könnte einen heißen Teller berühren, verbrennen lassen und schnell lernen, es nicht noch einmal zu tun “, sagte Katanforoosh per Text. „Das ist reine Verstärkungslernen – Lernen aus Versuch und Irrtum zu lernen, basierend auf dem Feedback […] Bei Deepseeks Methode geht es darum, das Modell allein durch Erfahrung lernen zu lassen. “

Deepseek scheint sich stärker auf Verstärkungslernen verlassen zu haben als andere innovative KI -Modelle. OpenAI nutzte auch Verstärkungslernen -Techniken, um O1 zu entwickeln, das das Unternehmen Wochen vor der Bekanntgabe von Deepseek R1 enthüllte. Das kommende O3 -Modell von OpenAI erzielt mit weitgehend ähnlichen Methoden eine noch bessere Leistung, aber auch zusätzliche Berechnung, so das Unternehmen.

Das Verstärkungslernen ist laut Katanforoosh eine der vielversprechendsten Möglichkeiten zur Verbesserung der AI -Stiftungsmodelle. Der Begriff „Fundamentmodelle“ bezieht sich im Allgemeinen auf KI -Modelle, die auf massiven Datenmengen wie Bildern und Text aus dem Web geschult wurden. Es ist wahrscheinlich, dass andere KI -Labors weiterhin die Grenzen des Verstärkungslernens überschreiten, um ihre KI -Modelle zu verbessern, insbesondere angesichts des Erfolgs von Deepseek.

Vor wenigen Monaten haben KI -Unternehmen Schwierigkeiten, die Leistung ihrer Fundamentmodelle zu steigern. Aber der Erfolg von Methoden wie Verstärkungslernen und anderen, wie beaufsichtigte Feinabstimmung und Testzeitskalierung, deuten darauf hin, dass der KI-Fortschritt möglicherweise wieder auftritt.

„R1 hat mir viel mehr Vertrauen in das Tempo des Fortschritts gegeben, wenn ich hoch bleibt“, sagte Nathan Lambert, ein Forscher bei AI2, in einem Interview mit Tech.

Ein Wendepunkt Für KI -Politik

R1, das auf jedem Computer heruntergeladen und ausgeführt werden kann, der den Hardwareanforderungen, übereinstimmt O1 auf einer Reihe von KI -Benchmarks. Obwohl es nicht das erste Mal ist, dass die Leistungslücke zwischen „geschlossenen“ Modellen wie die von OpenAI und offen verfügbaren Modellen eng ist, hat die Geschwindigkeit, mit der Deepseek die Branche verblüfft hat.

Dies kann die USA dazu bringen, ihre Investition in offene oder sogar vollständig Open Source -KI zu erhöhen, um mit China zu konkurrieren. Martin Casado, eine persönliche Partnerin bei Andreessen Horowitz (A16Z), erzählt Tech, dass Deepseek beweist, wie „falsch“ die regulatorische Begründung der letzten zwei Jahre war.

„Für AI denke ich, dass uns das nur das zeigt [the United States] ist nicht allein in unserer technischen Fähigkeit “, sagte Casado in einem Interview. „Sehr wettbewerbsfähige Lösungen können von überall, insbesondere von China, von überall her kommen. Anstatt uns Innovation zu behindern, sollten wir stark in sie investieren. Open Source ermöglicht China in keiner Weise. In der Tat bedeutet es, dass unsere Unternehmen von Open Source nicht mehr so ​​stark vermehrt. “

Casado schien sich auf die kürzlich wiederholte KI-Exekutivverordnung des ehemaligen Präsidenten Biden und den Vetoed California Bill SB 1047 zu beziehen, was sich beide aggressiv aussprachen. A16Z hat argumentiert, dass beide Maßnahmen priorisierte, dass sie „ausgefallene“ KI -Doomsday -Szenarien gegenüber amerikanischen Innovationen verhindern. Im weiteren Sinne hatte Silicon Valley im Allgemeinen Erfolg, die die „KI -Schicksalsbewegung“ im Jahr 2024 abzureißen. Die wahre Sorge um AI, A16Z und andere haben wiederholt gesagt, dass Amerika seinen Wettbewerbsvorteil gegen China verliert.

Dieses Szenario scheint angesichts von Deepseeks Aufstieg viel greifbarer zu sein.

Nicht umsonst ist A16Z stark in viele der größten Akteure der Open AI -Welt investiert, einschließlich Datenbanken, Mistral- und Schwarzwaldlabors. Das VC -Unternehmen kann auch eine übergroße Rolle spielen, die die Trump -Verwaltung in der KI berät. Der frühere A16Z -Partner Sriram Krishnan ist jetzt Trumps leitender politischer Berater für AI.

Präsident Trump sagte am Montag, dass Deepseek ein „sein sollte“Weckruf”Für amerikanische KI -Unternehmen lobte das chinesische KI -Labor für seinen offenen Ansatz. Das entspricht ziemlich eng mit der Haltung von A16Z zu AI.

„Deepseek R1 ist Ai’s Sputnik-Moment“, sagte A16Z-Mitbegründerin Marc Andreessen in a Post auf xAuf die Einführung der Erde-Orbiting-Raumfahrzeuge der Sowjetunion vor Jahrzehnten, die die USA dazu veranlassten, ernsthaft in sein Weltraumprogramm zu investieren.

Der Aufstieg von Deepseek scheint auch den Geist offener KI -Skeptiker verändert zu haben, wie der ehemalige Google -CEO Eric Schmidt. Erst letztes Jahr äußerte Schmidt besorgt über die Verbreitung von Western Open AI -Modellen auf der ganzen Welt. Aber in einem am Dienstag veröffentlichten OP-ED sagte Schmidt, dass Deepseeks Aufstieg einen „Wendepunkt“ im globalen KI-Rennen markiert und weitere Investitionen in American Open AI aufforderte.

Nach vorne schauen

Es ist wichtig, die Leistungen von Deepseek nicht zu übertreffen.

Zum Beispiel stehen einige Analysten skeptisch gegenüber Deepseeks Behauptung, dass es eines seiner Frontier -Modelle, Deepseek V3, für nur 5,6 Millionen US -Dollar – eine Pittanz in der KI -Branche – mit rund 2.000 älteren NVIDIA -GPUs ausgebildet hat. Das chinesische KI -Labor sprießt schließlich nicht über Nacht und Deepseek Berichten zufolge hat einen Lagerbestand von mehr als 50.000 leistungsfähigeren Nvidia Hopper -GPUs.

Deepseeks Modelle sind ebenfalls fehlerhaft. Nach einem Test Nach der Informationsverantwortungsorganisation Newsguard bietet R1 in 83% der Fälle ungenaue Antworten oder Nicht-Antworten, wenn er nach Nachrichten zu den Nachrichten gefragt wird. Ein separater Test stellte fest, dass R1 sich weigert, 85% der Eingabeaufforderungen im Zusammenhang mit China zu beantworten, möglicherweise eine Folge der Regierungszensur, zu der im Land entwickelte KI -Modelle untersucht werden.

Dann gibt es die Behauptungen von IP -Diebstahl. Openai sagt, dass es Beweise hat Dieser Deepseek benutzte seine KI -Modelle, um seine eigenen zu trainieren, was, falls dies wahr ist, ein Verstoß gegen OpenAIs Begriffe darstellen würde. (Natürlich wird Openai derzeit von einer Reihe von Parteien verklagt

Trotzdem bewegte Deepseek die Nadel mit effizienteren Modellen – und sie innovierte. Lambert stellte fest, dass R1 im Gegensatz zu O1 seinen „Denkprozess“ den Benutzern enthüllt. Lambert hat beobachtet, dass einige Benutzer KI -Argumentationsmodelle mehr vertrauen oder glauben, wenn sie ihren internen Prozess sehen, in dem sie „ihre Arbeit erklären“.

Jetzt müssen wir sehen, wie Amerikas politische Entscheidungsträger und KI -Labors reagieren.

tch-1-tech