微软CTO:AI大模型的“Scaling Law”还能走多远?

华尔街见闻07-11

本文作者:李笑寅 来源:硬AI AI时代,大语言模型(Large Language Model,LLM)横行。 早在2020年,OpenAI就曾在一篇论文中提出一个定律:Scaling law。这个定律指的是大模型的最终性能主要与计算量、模型参数量和训练数据量三者的大小相关,而与模型的具体结构(层数/深度/宽度)基本无关。 此后,OpenAI在AI界风生水起,很多初创公司甚至科技巨头都将这一定律...

网页链接
免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法