Meta基于羊驼推出编程专用模型Code Llama 提供开源版并支持商用

Meta 早前推出羊驼模型的第二个版本:Llama 2,日前 Meta AI 研究院基于 Llama 2 推出编程专用模型 Code Llama,剑指 GitHub Copilot。

Code Llama 接受了超过 5000 亿个代码相关的 tokens 进行训练,旨在通过生成代码和对提示的自然语言响应来帮助软件开发者。

支持的语言包括 Python、JavaScript、Java、C++ 等多种常见的编程语言,并且还可以帮助完成部分代码编写以及参与调试等。

Meta基于羊驼推出编程专用模型Code Llama 提供开源版并支持商用

Code Llama 目前有三种模型:7B 版、13B 版和 34B 版,其中 7B/13B 版模型针对低延迟情况例如实时代码编写进行了优化,而 34B 版能力最强,可以提供整体的最佳效果,但运行这个模型需要更强的计算能力。

此外 Meta 还对 Code Llama 的 Python 和 Instruct 变体进行了微调,Python 版本为 Python 代码生成任务增强了功能,Instruct 版本经过微调,可以对自然语言提示生成更安全、更有帮助的响应。

Meta AI 团队表示,Code Llama 有潜力提高专业开发者的生产力,并降低新开发者的入行门槛。Meta 也强调,对于大型语言模型相关的风险,多说无益,只有开源才最适合提升安全性。

所以 Code Llama 可以用于非商用研究,但在开源许可证下也可以用于商业用途。Meta 希望该公司能推出带来人工智能编程模型的同时,让开源社区也能评估功能和发掘漏洞。

代码羊驼模型官网:https://codellama.dev/about

本文来源 蓝点网,由本站 收集整理,其版权均为 原网址 所有,文章内容系作者个人观点,不代表 本站 对观点赞同或支持。如需转载,请注明文章来源。

© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享