Noam Brown, der KI -Argumentationsforschung bei OpenAI leitet, sagt, dass bestimmte Formen von „Argumentation“ -Modellen vor 20 Jahren eintreten könnten, wenn Forscher „bekannt waren [the right] Ansatz “und Algorithmen.
„Es gab verschiedene Gründe, warum diese Forschungsrichtung vernachlässigt wurde“, sagte Brown am Mittwoch während eines Gremiums der GTC -Konferenz von NVIDIA in San Jose. „Ich habe im Laufe meiner Nachforschungen bemerkt, dass es etwas fehlt. Menschen verbringen viel Zeit damit, zu denken, bevor sie in einer schwierigen Situation handeln. Vielleicht wäre das sehr nützlich [in AI]. ““
Brown bezog sich auf seine Arbeit zum Spielen von Spielen an der Carnegie Melon University, einschließlich Pluribus, die Elite-Human-Profis bei Poker besiegte. Die KI Brown half, zu der Zeit in dem Sinne einzigartig zu kreieren, dass es durch Probleme „begründete“, anstatt einen brutaleren Ansatz zu versuchen.
Brown ist einer der Architekten hinter O1, einem OpenAI-AI-Modell, das eine Technik verwendet, die als Testzeit-Inferenz „Denken“ verwendet wird, bevor es auf Anfragen reagiert. Die Inferenz für die Testzeit beinhaltet, dass zusätzliches Computer auf laufende Modelle angewendet wird, um eine Form der „Argumentation“ voranzutreiben. Im Allgemeinen sind sogenannte Argumentationsmodelle genauer und zuverlässiger als herkömmliche Modelle, insbesondere in Bereichen wie Mathematik und Naturwissenschaften.
Brown wurde während des Gremiums gefragt, ob die Akademie jemals hoffen könne, Experimente auf dem Umfang von AI -Labors wie OpenAI durchzuführen, da der allgemeine Mangel an Rechenressourcen durch Institutionen den allgemeinen Mangel an Rechenressourcen. Er gab zu, dass es in den letzten Jahren härter geworden ist, da Modelle rechnerten intensiver geworden sind, aber dass Akademiker einen Einfluss haben können, indem sie Bereiche erforschen, die weniger Computer erfordern, z. B. das Design der Modellarchitektur.
“[T]Hier ist eine Gelegenheit zur Zusammenarbeit zwischen den Frontier Labs [and academia]“, Sagte Brown.“ Sicherlich schauen die Grenzlabors akademische Veröffentlichungen und denken sorgfältig darüber nach, OK, dies macht ein überzeugendes Argument, dass dies sehr effektiv wäre, wenn dies weiter vergrößert würde. Wenn es dieses überzeugende Argument aus dem Papier gibt, werden wir das in diesen Labors untersuchen. “
Browns Kommentare kommen zu einer Zeit, in der die Trump -Regierung macht tiefe Schnitte zu wissenschaftlichem Stipendium. KI -Experten, darunter Nobelpreisträger Geoffrey Hinton, haben diese Kürzungen kritisiert und erklärt, dass sie KI -Forschungsbemühungen sowohl inländisch als auch im Ausland bedrohen könnten.
Brown rief KI -Benchmarking als einen Bereich aus, in dem Akademie einen erheblichen Einfluss haben konnte. „Der Zustand der Benchmarks in KI ist wirklich schlecht, und das erfordert nicht viel Berechnung“, sagte er.
Wie wir bereits geschrieben haben, tendieren die beliebten KI -Benchmarks heute tendenziell auf esoterische Kenntnisse und geben Werte, die nur schlecht mit den Kenntnissen in Bezug auf Aufgaben korrelieren, die den meisten Menschen interessieren. Dies hat zu weit verbreiteten Verwirrung über die Fähigkeiten und Verbesserungen der Modelle geführt.
Aktualisiert 4:06 Uhr Pacific: Eine frühere Version dieses Stücks implizierte, dass Brown in seinen ersten Bemerkungen auf Argumentationsmodelle wie O1 bezog. Tatsächlich bezog er sich vor seiner Zeit bei Openai auf seine Arbeit an der KI. Wir bereuen den Fehler.