DeepSeek-R1发布后,有以下两个重要的AI产业新趋势值得关注。就算没有DeepSeek-R1,这两个趋势终将显著浮现,但DeepSeek-R1的出现,加速了趋势发生。
Scaling law边际效益放缓时,AI算力仍可透过优化训练方式持续成长并有利挖掘新应用。
API/Token价格显著下滑,有利AI软体/服务与装置AI,加速AI应用多元化。
趋势一:Scaling law边际效益放缓时,AI算力仍可透过优化训练方式持续成长并有利挖掘新应用
过去1-2年,投资人对AI伺服器供应链的投资逻辑主要基于AI伺服器出货量在Scaling law成立下可持续成长。然而,Scaling law的边际效益正逐渐递减,这让市场更加关注DeepSeek透过Scaling law以外的方式显著提升模型效益。
最常被引用之一的Chinchilla之Scaling law指出,AI模型性能由模型参数量 (N)、训练资料量 (D) 与运算能力 (C) 三者决定,最理想的情境是N、D与C同时增加。
Scaling law对提升模型性能边际效益放缓原因:1) 人类创作的文本资料 (D) 几乎已耗尽、2) 在运算能力 (C) 没有大幅提升与训练资料量 (D) 耗尽下,仅提升模型参数量 (N) 无助于模型效能、与 3) 运算能力 (C) 短期不易显著提升 (原因如Blackwell系统尚未量产、电力供应限制等)。
从产业研究角度,DeepSeek-R1值得关注之处是该LLM透过优化训练方式而非Scaling law显著提升模型效益,这可由检视与测试其开源成果验证。
Scaling Law 的边际效益终有递减时,此时透过优化训练方式来提升模型效益,有利持续提升AI基础建设的算力并挖掘新应用。对AI产业的长期发展而言,两者缺一不可。
趋势二:API/Token价格显著下滑,有利AI软体/服务与装置AI,加速AI应用多元化
目前从生成式AI趋势中获利的方式,主要还是卖铲子与降低成本,而非创造新业务或提升既有业务附加价值。
DeepSeek-R1采取激进的定价策略,可免费使用且API/token定价最低者不到OpenAI-o1的1/100,此竞争压力可能将带动AI使用成本下滑。AI产业在中国市场竞争激烈,预期将见到其他中国厂商推出跑分优异的LLM且定价更为激进者。
近期AI供应链相关股票大幅修正,主因是投资人调整因Scaling law边际效益放缓对AI伺服器出货的负面影响,而非担忧LLM服务供应商与CSP能否透过AI获利,这是因为大部分投资人仍愿意耐心等待获利发生。
AI软体/服务与装置端AI的成本,因API/Token价格下滑与训练方法优化而降低,这有助于增加AI算力需求,并可降低投资人对AI投资能否获利的疑虑。
AI用量肯定会因为价格下滑而提升,但提升程度能否抵销下滑幅度仍需观察。此外,AI用量提升有助创造可获利的商业模式,但这也并非绝对。不过,在投资人普遍仍愿意耐心等待获利出现时,上述顾虑目前可忽略。
结论:
Scaling law是经验法则,合理降低预期并理性看待反而有利长期投资趋势。晶片升级 (C)、改善电力供应限制 (C)与训练导入更多多模态资料 (D) 等,都有利未来再加速Scaling law边际效益。
只有大量部署者才会遇到Scaling law边际效应放缓,这也再度验证Nvidia的领先地位。等到Nvidia方案的Scaling law边际效益再度加速时,预期届时优势将更为显著 (vs. ASIC & AMD)。
近期GB200 NVL72量产不顺,故此时调整Scaling law与AI伺服器出货预期不是坏事。此次股价修正后,后续更有利反应GB300/Rubin利多。
一线CSP不会只因为有更好的训练方式而砍资本支出,因为两者不冲突。此时若放缓资本支出,等到Scaling law边际效益再度加速时,就会落后竞争对手。
开放社群资源与中国竞争激烈环境,预期将见到其他中国厂商推出跑分优异的LLM且定价更为激进。届时若LLM服务供应商还没开始稳定获利,获利压力将进一步承压。
受益于API/Token价格显著下滑,AI软体/服务与装置端AI将吸引更多投资人关注。而能否成为新的长期投资趋势,取决于能否创造可获利的商业模式。
Nvidia仍是未来Scaling law边际效益再次加速的赢家,但需关注短期GB200 NVL72量产问题与中长期美国的半导体出口禁令是否有变。
精彩评论