Meta称其LLaMA语言模型比OpenAI的GPT-3更有前景
来源:TechWeb 发布时间:2023-03-01 13:00 阅读量:7806
在OpenAI推出大型语言模型ChatGPT后,竞争对手纷纷迎头赶上。谷歌有 Bard,微软有新必应。现在,Meta也上线了一个新模型LLaMA。目前,该模型只对研究人员开放。
据了解,LLaMA是 Large Language Model Meta AI 的首字母缩写词,比现有的模型更小,因为它是为无法访问大量基础设施的研究社区构建的。LLaMA 有多种尺寸,从70亿个参数到650亿个参数不等。
Meta方面称,尽管 LLaMA-13B 的尺寸较小,而且少了1620亿个参数,但“在大多数基准测试中”表现优于 OpenAI 的GPT-3。
据报道,最大的模型 LLaMA-65B 与 DeepMind 的Chinchilla70B和PaLM-540B等模型可相提并论。
LLaMA 是一个基础模型:它在大量未标记数据上进行训练,这使得研究人员更容易针对特定任务微调模型。由于模型更小,因此更容易针对用例进行再训练。
LLaMA不仅仅是使用英语文本构建的。Meta使用20种使用拉丁语或西里尔语脚本的语言训练其模型。然而,大多数训练数据都是英语,因此模型性能更好。
Meta 的研究人员声称,由于模型的大小,对当前大型语言模型的访问受到限制。
Meta 认为“这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其稳健性和解决已知问题的努力”。
除了使模型更小之外,Meta 还试图让 LLaMA 更易于访问,包括在非商业许可下发布它。
对各种 LLaMA 模型的访问权限只会根据具体情况授予学术研究人员,例如隶属于政府、民间组织和学术界的研究人员。
与 ChatGPT 一样,LLaMA 与其他语言模型一样存在生成有偏见或不准确的信息。Meta 的 LLaMA 声明承认了这一点,并表示通过共享模型,研究人员可以“更轻松地测试新方法来限制或消除大型语言模型中的这些问题。”
Meta在去年5月曾推出一款面向研究人员的名为OPT-175B的大型语言模型,去年年底还发布过另一款模型Galactica,但后者被发现经常分享有偏见或不准确的信息,在48小时内被迅速下架。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
站点精选
2月25日上午,“走进横琴——保险资金助力合作区高质量发展论坛”圆满举办。本次论坛由横琴粤澳深度合作区金融发展局指导,横琴粤澳深度合作区金融行业协会主办,珠海华...
- 不止柏林工厂,特斯拉得州超级工厂ModelY周产量预计很快将2023-02-28
- 微软PCGamePass游戏订阅新增支持40个国家和地区2023-02-28
- 田明“换壳记”朗诗绿色生活注入朗诗寓里的股权与博弈2023-02-28
- 观点直击|锦和商管“爬坡”进行时2023-02-28
- 分析师称苹果重启iPhoneSE4?升级6.1英寸屏并搭载自2023-02-28