Nvidia地表最强新晶片! 光模组最具投资价值

Benny_tastymoney
2023-08-11

最近,NVIDIA$英伟达(NVDA)$ 于美国洛杉矶举办的SIGGRAPH 2023活动上,宣布GH200为称的下一代Grace Hopper Superchip,更针对专业运算工作需求推出全新RTX工作站。其中,HBM3e 版的GH200 则达到141GB ,不仅将 GPU 记忆体频宽提高到 5TB/s ,通过NVLink串接两张GH200后比起原版高出3.5倍记忆体容量与3倍频宽。

GH200 黑科技

NVIDIA是这次AI热潮中最大得益者,同时是首个卖铲人。不过,第三季开始会面临AMD及intel的AI晶片的挑战。NVIDIA的领导地位保得住吗?

就在早前的SIGGRAPH 2023,NVIDIA于活动上,宣布GH200为称的下一代Grace Hopper Superchip,更针对专业运算工作需求推出全新RTX工作站。这预计明年第二季开始投产,这晶片有什么特别之处呢?

继续领先AI晶片

首先GH200 Grace Hopper Superchip是混合 CPU 与 GPU 的晶片,中间连接在同一块卡上,成为一个性价比超高的GPU,同时将推出采用 HBM3e 记忆体版本,记忆体将达141GB,频宽提高到 5TB/s 。

NVLink高速GPU互连技术

新GH200当中采用HBM3e记忆体带来1.5倍的频宽与1.7倍的容量,同时透过NVLink串接两张GH200后比起原版高出3.5倍记忆体容量与3倍频宽。

新一代NVLink设计,可将两组GH200 Grace Hopper Superchip串接,形成144组核心设计的Grace CPU,以及算力可达8PFLOPS表现的Hopper GPU。若配合NVLink串接特性,堆叠256块GH200,形式建构为算力可达1 EFLOPS、记忆体容量高达144TB的超级电脑。

NVlink连一起

老黄演讲是就展示了一台,以256组GH200组成超级电脑,可发挥12倍算力,同时电力损耗更低,相比单纯以CPU运作模式可带来高达20倍的能源使用效率。

专业工作新卡

除了AI超级新晶片外,还发布了专业工作RTX 6000专业绘图卡,预计会在今年秋季正式出货。此次也宣布推出包含RTX 5000、RTX 4500与RTX 4000在内专业绘图卡。

同时宣布,以Ada显示架构打造的L40S绘图卡,可用于自动生成式人工智慧训练、绘图渲染处理,以及Omniverse即时光影追迹效果渲染等,由华硕、Dell、技嘉、HPE、联想等推出伺服器产品。

光模块需求上升?

这次Nvidia发布的新卡,地表最强!黄仁勋重申﹐买得越多张省得越多钱。基于NVIDIA NVLink高速 GPU 互连技术与其他超级晶片互连与协同工作,组成一个超级AI电脑,省不能源费用。

根据分析师表示,英伟达GH200使用了800G光模组连接 NVLINK L1 层和 L2 层交换机。当节点256个以内时,每一个GPU需要9个光模组。

这样看来,800G光模组仍是 AI 算力产业链上最具投资价值的环节之一。新的GH200只会加大光模组的需求,根据LightCounting预测,在2026年前,五大云计算企业阿里巴巴、亚马逊、Facebook、谷歌和 Microsoft 的光模组支出将增加到30 亿美元以上。

小结

英伟达GH200的发布,进一步稳固了其在AI领域的领导地位,相信AMD及Intel还要很多时间追赶。同时,今日传出中国企业已经向英伟达订了50亿美元的A800晶片。看来在AIGC领域上,中美企业不甘后人,都大力投资加强火力,卖铲人仍然可期。因NVLINK技术,$COHERENT(COHR)$  $Applied Optoelectronics Inc.(AAOI)$  光模组需求有增无减,我们也需要留意。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

  • xinffu_37457
    2023-08-12
    xinffu_37457
    这篇文章不错,转发给大家看看
发表看法
1
3