最近,美股又诞生了一家万亿美金市值的公司——博通。
博通目前已成为全球大型AI数据中心以太网交换机芯片,以及AI硬件领域ASIC定制化AI芯片的最核心供应力量之一,自2023年以来成为人工智能投资浪潮的核心市场焦点,其投资热度仅次于AI芯片霸主英伟达。
之所以其市值突破万亿美元,主要是其公布了一份好于预期的第四财季财报,不仅盈利表现好于预期,而且博通今年人工智能收入增长了两倍多。博通财报显示,在截至11月3日的第四财季内,博通调整后每股盈利1.42美元,好于预期1.38美元;博通收入140.5亿美元,较去年同期的93亿美元增长51%。略低于预期的140.9亿美元。该公司第四季度净利润为43.2亿美元,合每股0.90美元,较上年同期的35.2亿美元和每股0.83美元增长23%。
博通预计下一财季收入146亿美元,略好于分析师平均预期145.7亿美元。其CEO陈福阳还透露,博通正在与三家大型云客户开发定制AI芯片。
01
AI芯片路线之争:ASIC还是GPU
博通在包括人工智能芯片在内的半导体解决方案部门,营收从一年前的80.3亿美元增长了12%,至82.3亿美元。也就是说,博通营收增长主要得益于AI芯片相关业务。
AI芯片,也被称为AI加速器或智能芯片,是一种专为高效运行人工智能算法而设计的特殊处理器。这种芯片基于人工神经网络模型,模拟生物神经元的工作机制,通过大量的处理单元进行并行计算,以实现复杂的数学运算和数据处理。而说到AI芯片,绝大部分人的第一印象是英伟达的GPU。实际上,主流AI芯片主要分为三类:以GPU为代表的通用芯片、以ASIC定制化为代表的专用芯片以及以FPGA为代表的半定制化芯片。其中最受关注的莫过于ASIC和GPU两种技术路线。
GPU(Graphics Processing Unit)芯片即图形处理器,是显卡的核心,主要擅长做图像和图形相关运算工作,其特点是具有强大的并行计算能力和高速的数据处理能力,擅长处理计算密度大,数据间相关性小的并行计算。这主要得益于GPU在设计时给计算单元分配了更多区域。这样可以为并行计算的每个数据单元执行相同程序,不需要繁琐的流程控制而提高计算能力。近年来,GPU芯片还广泛应用于机器学习算法和深度学习算法的开发中,其强大的并行处理能力使其成为机器学习算法和深度学习算法开发的主要处理器,并极大简化了复杂数据处理流程。
从计算能力上看,GPU芯片在大数据处理和并行计算方面表现出色。然而,GPU芯片也存在一些局限性。例如,在功耗方面,GPU芯片的功耗相对较高,这对于一些对功耗要求较高的应用场景来说可能是一个问题。此外,GPU芯片的内部结构相对复杂,包含了大量其他逻辑来实现其他功能,这些逻辑对于AI算法来说可能并不完全有用,从而在一定程度上影响了AI算法的执行效率。
在此情况下,ASIC被纳入视野。ASIC(Application-Specific Integrated Circuit),即应用特定集成电路,在集成电路界被认为是一种为专门目的而设计的集成电路。ASIC在批量生产时与GPU等通用集成电路相比具有体积更小、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点。
随着生成式AI应用的迅猛发展,AI ASIC芯片能否成为英伟达GPU芯片可⾏的替代品⼀直是业内热议话题。而摩根士丹利认为,尽管面临英伟达GPU的竞争,AI ASIC的市场仍将继续扩张。大摩分析师表示,ASIC市场规模将继续增长,预计在2024—2027年期间,AI ASIC市场规模将从120亿美元增长至300亿美元,年复合增长率达到34%,其中3nm项目将成为关键竞争领域。
研究机构Rosenblatt也预计,随着其他科技巨头的突破,客户定制化的AI ASIC的增速预计将超过GPU计算。
02
英伟达AI GPU最强劲对手
作为AI芯片的龙头企业,英伟达的AI生态拥有三大王牌,GPU、CUDA和NVLINK。
CUDA是英伟达公司设计研发一种并行计算平台和编程模型,包含了CUDA指令集架构以及GPU内部的并行计算引擎。开发人员可以使用C语言来为CUDA架构编写程序,所编写出的程序可以在支持CUDA的处理器上以超高性能运行。
而NVLink则是英伟达开发并推出的一种总线及其通信协议。NVLink采用点对点结构、串列传输,用于CPU与GPU之间的连接,也可用于多个GPU之间的相互连接。当前配备并使用NVLink的产品业已发布,多为针对高性能运算应用领域,比如英伟达的Tesla P100运算卡、H100等。NV LINK在优化GPU与CPU之间的数据交换,增强系统的灵活性与扩展性,提高系统的能效比上,都具备强有力的竞争能力。
而NVLink的成功主要得益于2019 年以 69 亿美元的巨额资金收购了以色列芯片厂商迈络思(Mellanox)科技有限公司。在高速以太网卡、网络互联设备等市场,迈络思处于全球第一梯队,在InfiniBand领域的占有率接近70%。收购完成之后,英伟达将自己原有的NV Link协议和迈洛思的网卡芯片做了整合,从而在生态上完成了高度融合。比如,NVLink经常用于GPU卡间互联,以提高计算任务的性能;而 InfiniBand则负责连接数据中心内的通用服务器节点、存储设备等,以实现整个系统的高效运行。
英伟达因其先发优势和三大王牌,在AI芯片领域稳坐头把交椅。但如今英伟达最强劲的竞争对手已经出现。
博通设计并销售的芯片中,虽然没有GPU和NVlink,但博通却拥有很多确保GPU正常通信的高速连接芯片,比如Switch,类似的芯片博通在全球市场份额中占有近半数的市场份额,由于其设计的难度比较高,价格比较贵,利润也自然丰厚。
此外,博通也拥有芯片设计服务能力。凭借多年在芯片定制领域的积累,博通拥有丰富的芯片设计IP。这也使得博通可以通过为客户设计ASIC芯片和英伟达的GPU竞争。因为采用的是ASIC的方案,不需要和英伟达GPU一样实现通用计算能力,只需要跑通客户的算法,系统和模型足矣,自然也避开了CUDA生态。实际上博通已经帮谷歌这类互联网大厂开发了一款专用AI ASIC,即谷歌的TPU。
市场调研机构Omdia的最新研究结果强调了对谷歌张量处理单元 (TPU)AI芯片的需求正在快速增长,这一趋势可能足以开始削弱 NVIDIA 在 GPU 领域的市场主导地位。博通CEO一再上调他的 AI 芯片收入目标至 120 亿美元。基于此,据估计,谷歌的 TPU 可能占 60 亿美元到 90 亿美元之间,具体取决于计算和网络设备之间的细分。这个数字包括大量 Meta 的 MTIA 芯片,以及2025年将新增的一个神秘的第三个客户的项目。
分析师指出,“尽管计算设备和网络设备的具体比例存在一些不确定性,但即使按照较低的60亿美元估计,TPU出货量的增长速度也足以首次从英伟达手中抢占市场份额。值得注意的是,谷歌云业务在总收入中占比持续增长,盈利也在不断提升。这可能表明TPU加速实例和基于TPU的AI产品在发挥作用。”
ASIC正在加速崛起,威胁GPU在AI计算中的统治地位。得益于此,博通作为ASIC最重要的概念股,股价一路猛涨,一度从180飙到了250,市值也突破了万亿美元。相比之下,英伟达反而成了昨日黄花,股价一路下跌,甚至不到130美元。
03
百万算力集群大战来袭
目前,基于GPU和ASIC的算力集群正迈向百万算力卡的集群大战。
马斯克宣布,计划将xAI的Colossus AI超级计算机从目前的10万个GPU扩展到100万个,这无疑引发了业界的广泛关注,从而超越谷歌、OpenAI 和 Anthropic 等竞争对手。不过,xAI并非唯一一家拥有如此宏伟计划的企业。
博通CEO在2024财年Q4财报电话会议上表示:“我们目前有三家超大规模客户,他们已经制定了自己的多代AI XPU路线图,计划在未来三年内以不同速度部署。我们相信,到2027年,他们每家都计划在单一架构上部署100万XPU集群。”
博通为包括谷歌、Meta在内的多家科技巨头开发AI、定制数据中心硬件芯片等。公司与客户合作确定工作负载需求,如AI训练、推理或数据处理,然后定义芯片规格并开发关键差异化方面。博通负责将架构实现为硅片,并配备平台特定的IP、缓存、芯片间互连和接口。这些高性能XPU由台积电(TSMC)制造。
如今博通和英伟达的AI芯片大战正愈演愈烈。
04
转机出现,博通未来可期
资料显示,到2027年,其人工智能芯片以及人工智能网络部件的总市场机会可能在600亿至900亿美元之间。
虽然AI芯片市场很大,但一直以来都被英伟达所把控。不过2024年英伟达却流年不利,最近转机来了。
首先是英伟达新的GPU频频延期。根据The Information的一份新报告,英伟达已向其部分合作伙伴透露,原定的Blackwell GPU发布计划将推迟,目前目标锁定在2025年初。推迟发布虽在意料之外,但背后的原因——设计缺陷,更令人忧心。随着新一代GPU的交付推迟,AI产业的用户体验将受到影响。各大公司在部署基于此技术的应用时,面临项目进度延误的风险。
此外,天风证券分析师郭明錤发布的最新投资研究报告表示,英伟达正为其明年即将推出的B300和GB300开发测试DrMOS技术,但其中发现AOS(Alpha and Omega Semiconductor Limited) 的5×5 DrMOS 芯片存在严重过热问题。如果这个的问题不能快速解决,则可能影响系统量产进度,并改变市场对AOS订单的预期。
另一方面,当前博通的ASIC客户已经实现量产的是谷歌和meta,其中最大部分来自于谷歌。公司的AI收入和谷歌的资本开支有较强的相关度。另外,结合公司认为2024财年150-200亿美元的可服务市场规模看,复合增速将达到50%以上,这为市场信心再次注入了“强心剂”。
精彩评论