大模型格局变天:Llama 3.1 诞生,开源首次击败当今最强闭源模型

相信今天大家翘首企盼的都是同一个主角,Meta藏到现在的王牌、最被社区看好能直接叫板GPT-4o的新一代开源大模型 —— Llama 3.1系列,终于正式发布了。

鉴于4月公开的两个Llama 3小参数模型8B和70B表现不俗,令开发者们对最大参数版本的强悍性能充满期待。

昨天凌晨,部分“关键情报“更是在Reddit和Hugging Face上遭到泄露,爆料者称它已匹敌GPT-4o和Claude 3.5 Sonnet。今天看来所言非虚:

开源大模型首次击败了闭源最强SOTA模型。

此次Llama 3.1共发布8B、70B 和 405B 三个尺寸。能力全面提升,原生支持8种语言,最长上下文窗口128k。

其中超大杯405B包含4050亿个参数,是首个“前沿级别开源AI模型”,也是近年来规模最大LLM之一。

在通用常识、可引导性、数学、工具使用和多语言翻译等广泛任务中足以对标GPT-4、Claude 3.5 Sonnet等领先闭源模型。

Llama 3.1 8B和70B也在老版本基础上进行了推理能力和安全性升级,除多语言和上下文扩展外,还支持更多诸如长文本总结、多语言对话代理和编程助手等高级用例。

全系列主要亮点包括:

模型架构:延续Llama 3的标准解码器 transformer 架构,以最大化训练稳定性。

巨量数据:405B在15万亿token(相当于7500亿个单词)上训练,结合2500万合成数据微调。包含了更多的非英语资料、 “数学数据”和代码、以及最近的网络数据。

指令微调:后训练中每一轮都使用监督微调和直接偏好优化来迭代,并通过多轮对齐来改进模型的指令跟随能力和安全性,生成最终的聊天模型。

GPU规模:使用超过 1.6 万个 H100 GPU,时长高达惊人的3930万GPU小时。

预训练知识库:更新至2023年12月。

多语言支持:涵盖英语、法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语

此外,与Anthropic和OpenAI的竞争模型一样,所有Llama 3.1模型都可以使用第三方工具、应用程序和API来完成任务。支持零样本条件下的工具调用和操作,显著提升任务处理的灵活性和效率。

Meta AI团队在同步发表的《The Llama 3 Herd of Models》论文里对比了Llama 3框架下所有模型目前的能力。

还有一个额外福利:为了鼓励合成数据的使用,Meta更新了更宽松的许可证,允许开发者使用Llama 3.1模型的高质量输出来改进和开发第三方AI生成模型。

定价如下。据扎克伯格透露,Llama 3.1是一套高效且价格实惠的模型,“开发者可以在他们自己的基础设施上运行405B 的推理,成本大约是 GPT-4o 这种封闭模型的 50%,适用于用户界面和离线任务。”

并且 Llama模型的权重可以下载,开发者可以根据自己的需求完全自定义应用,而无需与Meta共享数据。

405B开源最强,多项打败GPT-4o,8B/70B领跑中小模型

Meta称他们在超过150个基准数据集上进行了性能评估,涵盖多种语言。并进行了广泛的人类评估,将Llama 3.1与竞争模型拿到现实场景中进行比较。

实验结果表明,Llama 3.1 405B在各项任务中完全可与最先进闭源模型竞争,包括GPT-4、GPT-4o和Claude 3.5 Sonnet。

在GSM8K数学、IFEval指令遵循、多语言处理、长上下文、ARC推理、Nexus工具调用等多项测试上当仁不让,生猛夺冠。此外8B和70B在与同级别小参数模型对战中也表现优异。

具体战绩如下表所示:

通用任务基准上,Llama 3 405B 在多语言评估MGSM和指令遵循测试IFEval中均位列第一。MMLU微微落后GPT-4o 0.1%,优于Claude 3.5 Sonnet。另一方面,Llama 3.1 的 70B 和 8B 模型在三个任务中均表现出色,在竞争对手中遥遥领先。

Llama 3.1 405B具有非常突出的数学能力。在GSM8K任务中表现最佳,得分96.8,高于GPT-4o的96.1和Claude 3.5 Sonnet的96.4。MATH任务成绩仅次于GPT-4o。

推理方面,在ARC 挑战任务中,Llama 3.1 405B再次力克两个闭源强大对手夺冠。GPQA评估上略逊于后两者,但仍优于市面上其它模型。

来到长上下文,Llama 3.1 405B在零样本基准质量ZeroSCROLLS和无限基准小说多选问答InfiniteBench/En.MC上又登榜首。多针检索Multi-needle不敌GPT-4o,但远高出Claude 3.5 Sonnet。

最后是代码生成能力。在评估Python生成的HumanEval和其它编程语言的MBPP EvalPlus测试中,8B和70B继续大幅领先同级别模型,但大参数模型上表现最佳的还是Claude 3.5 Sonnet。

从上述关键基准测试结果来看,Llama 3.1 405B的综合实力已与业界最新、最强、最高不可攀的标杆模型GPT-4o们旗鼓相当,甚至实现多项超越。

不仅成为当前开源领域的王者,更是首次将开源与闭源世界SOTA模型之间的差距缩小至零,亲手打破了OpenAI和Anthropic长期以来的神秘滤镜。

扎克伯格将Llama 3.1誉为“艺术的起点”,并自信地表示:“从明年开始,未来的Llama模型将成为行业内最先进的。但即便在那之前,Llama在开放性、可定制性和成本效益方面已然处于领先地位。”

开源来势凶猛,大模型格局将变

对于广大科研人员和技术开发者们来说,这无疑是一个里程碑式的时刻。

EverArt AI创始人Pietro Schirano感叹道,“随着 Llama 3.1 405B 的推出,我们现在有了一款在部分基准测试上超过现有最佳闭源模型的开源选择——真是一个了不起的时代。”

英伟达高级研究科学家Jim Fan说,“GPT-4的力量现在被掌握在了我们手中。一个真正的历史时刻!”

刚宣布AI教育创业的技术大神Andrej Karpathy在X发表长文,欣喜地表示生成式AI领域“首次有了一个尖端能力的 LLM 可供所有人使用和构建。”并且这个模型开放权重、许可宽松,可商业使用、合成数据生成、蒸馏和微调。

“我喜欢说现在还处于非常早期的阶段,就像我们回到了 20 世纪 80 年代的计算机时代,LLMs 是下一个主要的计算范式,Meta 显然正定位于成为开放生态系统的领导者。”

Karpathy认为Llama 3.1将激发开源社区的巨大潜力:

开发者将利用RAG技术优化模型,进行微调,并将其蒸馏成针对特定任务的小型专家模型。研究人员将深入研究、测试和改进模型。整个开放生态系统也将以模块化方式自组织,形成各种产品、应用和服务,让每个参与者都能发挥所长。

比如AI芯片独角兽Groq,他们开发了一种能快速推理LLM的新型芯片,已经集成了Llama 3.1模型。不仅能以语音对话模式即时推理Llama 3.1 8B,而且其上运行的 405B可能是目前性能最强、速度最快的LLM。

而这样的惊艳例子只会越来越多,使得开源阵营的体量和竞争力与日俱增,最终或许令闭源优势不再。不过Karpathy也在推文中打趣说,“预计闭源模型的玩家很快就会追赶,我期待着这一点。”

马斯克称赞了扎克伯格为开源社区做出的贡献。用户@7etsuo说,“我甚至不确定闭源在这一点上打算怎么竞争。他们应该也向整个行业开放。让每个人都致力于AGI目标,从而带来一些重大突破。”

在当天早上发布的一封公开信中,扎克伯格描绘了一个未来的愿景,即AI工具和模型能够到达世界各地更多的开发者手中,确保人们能平等享受到AI的“好处和机会”。

据悉,Llama 3.1系列已经与AWS, 英伟达, Databricks, 戴尔, 微软Azure和谷歌云等25家公司成为生态合作伙伴。而截至目前,Llama模型已经被下载了超过3亿次,创建了超过2万个Llama派生模型。

如今Llama 3.1的横空出世,让开源模型在能力上正式向闭源巨头宣战。我们可以预见到的是, AI技术和成本的准入门槛将大幅降低,少数公司的垄断局面被打破,全球AI研究与应用进程加速,技术创新向多样化发展。

而且据扎克伯格透露,Meta已经在研发更强大的Llama 4了!

a16z合伙人Anjney Midha放话,与Llama 4相比,“Llama 3.1 is nothing”。

随着开源模型不断进步,AI技术民主化已是大势所趋。

到底AGI被谁先实现?

现在看来,答案真不一定是OpenAI。

(封面图来自网络)

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论