„Es gibt eine große Bewegung, um das zu schließen, was Open Source in der KI war … es ist nicht überraschend, da jetzt viel Geld darin steckt“, sagte er Andreas Feldmann, Gründer und CEO von Cerebras. „Die Aufregung in der Community, die Fortschritte, die wir gemacht haben, war zum großen Teil darauf zurückzuführen, dass sie so offen war.“ Modelle mit mehr Parametern können komplexere generative Funktionen ausführen. Der Ende letzten Jahres eingeführte Chatbot von OpenAI, ChatGPT, verfügt beispielsweise über 175 Milliarden Parameter und kann Gedichte und Forschungsergebnisse produzieren, was dazu beigetragen hat, das Interesse und die Finanzierung von KI auf breiterer Ebene zu wecken. Laut Cerebras können die kleineren Modelle auf Telefonen oder intelligenten Lautsprechern eingesetzt werden, während die größeren auf PCs oder Servern laufen, obwohl komplexe Aufgaben wie die Zusammenfassung großer Passagen größere Modelle erfordern. Allerdings Karl Freundein Chip-Berater bei Cambrian AI, sagte, größer sei nicht immer besser. „Es wurden einige interessante Artikel veröffentlicht, die zeigen, dass (ein kleineres Modell) genau sein kann, wenn man es mehr trainiert“, sagte Freund. „Es gibt also einen Kompromiss zwischen größer und besser ausgebildet.“ Feldmann sagte, sein größtes Modell habe etwas mehr als eine Woche zum Trainieren gebraucht, eine Arbeit, die dank der Architektur des Cerebras-Systems, das einen Chip von der Größe eines Esstellers enthält, der für das KI-Training gebaut wurde, normalerweise mehrere Monate dauern kann. Die meisten KI-Modelle werden heute auf den Chips von Nvidia Corp trainiert, aber immer mehr Startups wie Cerebras versuchen, an diesem Markt teilzuhaben. Die auf Cerebras-Maschinen trainierten Modelle können auch auf Nvidia-Systemen für weitere Schulungen oder Anpassungen verwendet werden, sagte Feldman.
Das KI-Computing-Startup Cerebras veröffentlicht ChatGPT-ähnliche Open-Source-Modelle
Chip-Startup für künstliche Intelligenz Cerebras-Systeme sagte, es habe Open-Source-ChatGPT-ähnliche Modelle für die Forschungs- und Geschäftswelt zur kostenlosen Nutzung veröffentlicht, um mehr Zusammenarbeit zu fördern. Sitz im Silicon Valley Großhirn veröffentlichte sieben Modelle, die alle auf seinem KI-Supercomputer namens Andromeda trainiert wurden, darunter kleinere Sprachmodelle mit 111 Millionen Parametern bis hin zu einem größeren Modell mit 13 Milliarden Parametern.