SK海力士,又搭上了博通

半导体产业纵横
12-20 18:08

本文由半导体产业纵横(ID:ICVIEWS)综合

SK海力士,英伟达与博通两手抓。

据TheElec获悉,韩国内存芯片巨头SK海力士已赢得向博通供应高带宽内存(HBM)的大订单。这家美国芯片巨头将从SK海力士采购内存芯片,以安装在一家大型科技公司的人工智能计算芯片上。

SK海力士预计将于明年下半年供应该芯片。

业内人士表示SK海力士现在肯定会调整其DRAM生产能力预测,因为它现在为英伟达和博通供应HBM。目前,它为英伟达的AI加速器供应了大部分HBM。

这家韩国公司计划明年将其1b DRAM(用作其HBM的核心芯片)的生产能力扩大到140,000至150,000片300毫米晶圆。

但随着与博通的新交易,预计这一数字将增加到160,000至170,000片300毫米晶圆。

SK海力士还可以推迟其1c DRAM(1bDRAM的后续产品)设备的安装时间表,以首先满足这一新的迫切需求。

博通被视为挑战英伟达的潜在竞争对手,英伟达目前在AI芯片市场占据主导地位。虽然博通不像英伟达那样生产自己的AI芯片,但它生产由大型科技公司客户设计的专用IC(ASIC)。

根据市场预测,到2028年,AI ASIC芯片的市场规模有望突破400亿美元,年复合增长率高达45%。这一惊人的增长潜力背后,蕴藏着AI ASIC芯片在功耗、成本和性能方面的巨大优势。AI ASIC 芯片在特定任务中展现出显著的功耗和成本优势。与传统的 GPU 相比,尽管单颗 ASIC 的算力可能略逊一筹,但在整体集群的算力利用效率上却可能更胜一筹。

博通本月早些时候表示,正在与三家大型云服务提供商(可能是谷歌、Meta和字节跳动)合作开发AI芯片。还有消息称,博通正在与苹果和OpenAI合作开发AI芯片。这些乐观的预测使该公司的估值超过了1万亿韩元。

博通的AI加速器预计将使用NPU,即神经处理单元。英伟达使用通用GPU,但NPU是为特定目的而设计的,这可以在时间、成本和功率效率方面为其带来优势。

与此同时,SK海力士在10月份第三季度电话会议上表示,预计HBM将占第四季度DRAM收入的40%。随着博通交易的完成,这一数字预计将进一步上升。SK海力士在电话会议上表示,客户对HBM3E的需求增长速度快于预期,该公司正专注于扩大产能。

SK海力士的发言人拒绝对其客户发表评论。

根据博通发布的最新一期第四财季财报显示,期内实现营业收入516亿美元,同比增长44%,其中基础设施软件实现收入215亿美元,主要得益于对VMware的业务整合,半导体业务实现收入301亿美元。

博通总裁兼CEO Hock Tan(陈福阳)指出,得益于公司旗下AI XPU类芯片和以太网产品组合的需求支撑,公司AI相关业务收入同比实现增长220%至122亿美元。

在业绩交流会上,Hock Tan还介绍了未来三年在AI芯片领域公司的发展空间。他表示,目前公司有三家超大规模客户已经制定了多代AI XPU路线图,预计到2027年,每个客户在单一网络架构中将部署100万个XPU集群,预估这三家客户的需求市场总量约有600-900亿美元,公司将抢占其中重要份额。

此外,公司还在为两家新的超大规模客户设计开发相应下一代AI XPU产品,有望在2027年之前转化为收入来源。公司3nm XPU将在2025年下半年开始大规模出货。

AI ASIC芯片市场的快速增长并非偶然。一方面,市场需求不断攀升。AMDCEO苏姿丰预测,到2027年AI加速器市场规模将达到4000亿美元。另一方面,技术生态的成熟为AI ASIC芯片的发展铺平了道路。当前AI算法向Transformer收敛,以PyTorch为主的深度学习框架的普及,为AI ASIC芯片提供了稳定的应用环境。云厂商也在积极构建集成了主流深度学习框架的软件生态,开发各种编译器和底层中间件,进一步降低了AI ASIC芯片的使用门槛。

随着软件生态的逐步完善,AI ASIC芯片的兼容性和易用性将不断提升,这将极大地扩展其应用范围。目前,AI ASIC芯片主要服务于云厂商自有业务和具备一定编译能力的中大型企业。但随着使用门槛的降低,未来有望吸引更多中小企业和开发者加入,进一步推动市场规模的扩张。

展望未来,AI ASIC芯片在云计算和AI推理与训练领域的渗透率有望持续提升。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法
1