Großes Sprachmodell: Meta führt KI-Code-Schreibtool namens Code Llama ein: Alle Details

Grosses Sprachmodell Meta fuehrt KI Code Schreibtool namens Code Llama ein Alle
Googles Bard und OpenAIs ChatGPT sollen sich mit dem Schreiben von Code auskennen. Meta hat diesen Raum nun durch den Start betreten Code LamaA großes Sprachmodell (LLM), das Texteingabeaufforderungen zum Generieren und Besprechen von Code verwenden kann.
„Code Llama ist auf dem neuesten Stand der Technik für öffentlich verfügbare LLMs zu Codierungsaufgaben. Es hat das Potenzial, Arbeitsabläufe für Entwickler schneller und effizienter zu gestalten und die Eintrittsbarriere für Leute zu senken, die das Codieren lernen“, sagte das Unternehmen .
„Code Llama hat das Potenzial, als Produktivitäts- und Bildungstool eingesetzt zu werden, um Programmierern dabei zu helfen, robustere und gut dokumentierte Software zu schreiben“, heißt es weiter.
Wie funktioniert Code Llama?
Meta erklärte, dass Code Llama eine auf Code spezialisierte Version von Llama 2 ist, die durch weiteres Training von Llama 2 anhand seiner codespezifischen Datensätze erstellt wurde. Dies brachte erweiterte Codierungsfunktionen mit sich und kann auch zur Codevervollständigung und zum Debuggen verwendet werden.
Es unterstützt viele der heute am häufigsten verwendeten Programmiersprachen, darunter Python, C++, Java, PHP, Typescript (Javascript), C#, Bash und mehr. Meta veröffentlicht Code Llama sowohl für Forschungs- als auch für kommerzielle Zwecke unter derselben Community-Lizenz wie Llama 2.
„Code Llama wurde entwickelt, um Softwareentwickler in allen Bereichen zu unterstützen – einschließlich Forschung, Industrie, Open-Source-Projekten, NGOs und Unternehmen“, sagte das Unternehmen.
Coda Lama in drei Größen
Meta veröffentlicht Code Llama in drei Größen: Parameter 7B, 13B und 34B. Während jedes Modell mit 500 Milliarden Code-Tokens und codebezogenen Daten trainiert wird, berücksichtigen sie unterschiedliche Anforderungen an Bereitstellung und Latenz.
Das leichte 7B-Modell kann auf einer einzigen GPU betrieben werden, ist schnell und eignet sich für Aufgaben, die eine geringe Latenz erfordern. Ebenso eignet sich das 13B-Modell besser für Aufgaben wie die Codevervollständigung in Echtzeit. Das 34B-Modell liefert die besten Ergebnisse und ermöglicht eine bessere Codierungsunterstützung.

toi-tech