香蕉很好
03-19
无敌
英伟达AI盛会GTC揭幕,最强AI芯片Blackwell来了!
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":285843645604016,"tweetId":"285843645604016","gmtCreate":1710804463252,"gmtModify":1710804464844,"author":{"id":3553213515430143,"idStr":"3553213515430143","authorId":3553213515430143,"authorIdStr":"3553213515430143","name":"香蕉很好","avatar":"https://static.laohu8.com/default-avatar.jpg","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":0,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>无敌</p></body></html>","htmlText":"<html><head></head><body><p>无敌</p></body></html>","text":"无敌","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/285843645604016","repostId":2420235326,"repostType":2,"repost":{"id":"2420235326","kind":"news","weMediaInfo":{"introduction":"追踪全球财经热点,精选影响您财富的资讯,投资理财必备神器!","home_visible":1,"media_name":"华尔街见闻","id":"1084101182","head_image":"https://static.tigerbbs.com/66809d1f5c2e43e2bdf15820c6d6897e"},"pubTimestamp":1710793378,"share":"https://www.laohu8.com/m/news/2420235326?lang=&edition=full","pubTime":"2024-03-19 04:22","market":"us","language":"zh","title":"英伟达AI盛会GTC揭幕,最强AI芯片Blackwell来了!","url":"https://stock-news.laohu8.com/highlight/detail?id=2420235326","media":"华尔街见闻","summary":"英伟达:台积电和Synopsys将采用英伟达计算光刻技术,这两家公司已经整合英伟达的Culitho ...","content":"<html><head></head><body><p><strong>》》全程回顾:<a href=\"https://www.laohu8.com/m/live/1793027278299171/?name=RNLive&rndata=%7B%22liveId%22%3A%221793027278299171%22%2C%22type%22%3A1%7D\" title=\"英伟达 GTC 2024 主题演讲\" target=\"_blank\" class=\"\">英伟达 GTC 2024 主题演讲</a></strong></p><p>英伟达称,Blackwell的成本和能耗较前代改善25倍,是全球最强大芯片,由 2080 亿个晶体管组成,采用台积电4nm制程,支持多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理;GB200 NVL72推理性能较H100提升高达30倍;亚马逊、微软、谷歌和甲骨文在首批提供Blackwell支持的云服务商之列;台积电和Synopsys将采用英伟达计算光刻技术;英伟达推出新软件NIM,让用户更容易利用已有英伟达GPU进行AI推理。</p><p style=\"text-align: justify;\">号称今年全球头号人工智能(AI)领域开发者大会的英伟达2024 GTC AI大会于美东时间3月18日周一拉开帷幕。</p><p style=\"text-align: justify;\">今年是英伟达时隔五年首次让年度GTC重回线下,也是此前分析认为英伟达要“拿出点真家伙”的AI盛会。</p><p style=\"text-align: justify;\">当地时间周一下午,英伟达创始人兼CEO 黄仁勋在美国加州圣何塞SAP中心进行主题为“面向开发者的1#AI峰会”(1# AI Conference for Developers)演讲。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/68ed3445d1656f7b915996d3e0e39530\" title=\"\" tg-width=\"640\" tg-height=\"470\"/></p><h2 id=\"id_1317132608\">Blackwell成本和能耗较前代改善25倍 全球最强大芯片 台积电4 nm制程</h2><p style=\"text-align: justify;\">黄仁勋介绍了运行AI模型的新一代芯片和软件。英伟达正式推出名为Blackwell的新一代AI图形处理器(GPU),预计将在今年晚些时候发货。</p><p style=\"text-align: justify;\">Blackwell平台能够在万亿参数级的大型语言模型(LLM)上构建和运行实时生成式 AI,而成本和能耗比前代改善25倍。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4c14d278aa963e9702144f06d6537f79\" title=\"\" tg-width=\"640\" tg-height=\"360\"/></p><p style=\"text-align: justify;\">英伟达称,Blackwell拥有六项革命性的技术,可以支持多达10万亿参数的模型进行AI训练和实时LLM推理:</p><ul style=\"\"><li><p>全球最强大的芯片:Blackwell 架构 GPU由 2080 亿个晶体管组成,采用量身定制的台积电4纳米(nm)工艺制造,两个reticle极限GPU裸片将10 TB/秒的芯片到芯片链路连接成单个统一的GPU 。</p></li><li><p>第二代 Transformer引擎:结合了Blackwell Tensor Core技术和TensorRT-LLM和 NeMo Megatron 框架中的 英伟达先进动态范围管理算法,Blackwell 将通过新的4位浮点AI 支持双倍的计算和模型大小推理能力。</p></li><li><p>第五代 NVLink:为提高数万亿参数和混合专家AI 模型的性能,最新一代英伟达NVLink为每个 GPU 提供了突破性的 1.8TB/s 双向吞吐量,确保最复杂LLM之间多达576 个GPU 之间的无缝高速通信。</p></li><li><p>RAS 引擎 :Blackwell 支持的 GPU 包含一个专用引擎,实现可靠性、可用性和服务性。 此外,Blackwell 架构还增加了芯片级功能,利用基于AI的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模AI的弹性,使其能连续运行数周甚至数月,并降低运营成本。</p></li><li><p>安全人工智能:先进的机密计算功能可在不影响性能的情况下保护AI模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。</p></li><li><p>解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。 未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由 GPU 加速。</p></li></ul><h2 id=\"id_565161683\">GB200 NVL72推理性能较H100提升高达30倍</h2><p style=\"text-align: justify;\">英伟达同时介绍超级芯片GB200 Grace Blackwell Superchip,它通过 900GB/s的超低功耗NVLink,将两个B200 Tensor Core GPU 连接到NVIDIA Grace CPU。</p><p style=\"text-align: justify;\">为了获得最高的 AI 性能,GB200 驱动的系统可以与周一同时宣布的英伟达Quantum-X800 InfiniBand 和 Spectrum-X800 以太网平台连接,这些平台可提供速度高达 800Gb/s 的高级网络。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1a62dab04affe5d7deb316a891dee4fd\" title=\"\" tg-width=\"550\" tg-height=\"564\"/></p><p style=\"text-align: justify;\">GB200是英伟达GB200 NVL72 的关键组件,GB200 NVL72 是一种多节点、液冷、机架规模系统,适用于计算最密集的工作负载。 它结合了 36 个 Grace Blackwell 超级芯片,其中包括通过第五代 NVLink 互连的 72 个 Blackwell GPU 和 36 个 Grace CPU。GB200 NVL72 还包括 NVIDIA BlueField®-3 数据处理单元,可在超大规模 AI 云中实现云网络加速、可组合存储、零信任安全性和 GPU 计算弹性。</p><p style=\"text-align: justify;\">相比数量的H100 Tensor Core GPU 相比,GB200 NVL72 对于 LLM 推理工作负载的性能提升高达 30 倍,并将成本和能耗降低高达 25 倍。</p><p style=\"text-align: justify;\">GB200 NVL72平台充当单个 GPU具有 1.4 exaflops 的 AI 性能和 30TB 的快速内存,是最新 DGX SuperPOD 的构建块。</p><p style=\"text-align: justify;\">英伟达推出服务器主板HGX B200,它通过 NVLink 连接八个 B200 GPU,以支持基于 x86 的生成式 AI 平台。 HGX B200 通过英伟达Quantum-2 InfiniBand 和 Spectrum-X 以太网网络平台支持高达 400Gb/s 的网络速度。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7616297f6c112aa10255a1c88c09b76\" title=\"\" tg-width=\"640\" tg-height=\"360\"/></p><h2 id=\"id_3161863077\">亚马逊、微软、谷歌和甲骨文在首批提供Blackwell支持的云服务商之列</h2><p style=\"text-align: justify;\">Blackwell芯片将成为亚马逊、微软、谷歌这类全球最大数据中心运营商部署新电脑和其他产品的基础。基于Blackwell的产品将在今年晚些时候问世。</p><p style=\"text-align: justify;\">英伟达称,亚马逊云AWS、谷歌云、微软云Azure 和甲骨文云基础设施Oracle Cloud Infrastructure将成为首批提供Blackwell支持实例的云服务提供商,英伟达云合作伙伴计划的成员公司Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也将成为首批提供 Blackwell 实例的云服务提供商。 </p><p style=\"text-align: justify;\">面向主权的Sovereign AI 云还将提供基于 Blackwell 的云服务和基础设施,包括 Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle欧盟主权云、Oracle 美国、英国和澳大利亚政府云、Scaleway、Singtel、Northern Data Group 的 Taiga Cloud、 Yotta Data Services 的 Shakti Cloud 和 YTL Power International。</p><p style=\"text-align: justify;\">黄仁勋说,“三十年来,我们一直在追求加速计算,目标是实现深度学习和AI这类方面的变革性突破。生成式AI是我们这个时代的决定性技术。 Blackwell是推动这场新工业革命的引擎。 通过与世界上最具活力的公司合作,我们将实现AI在各行各业的承诺。”</p><p style=\"text-align: justify;\">英伟达在公告通稿中列举了料将采用Blackwell的一些组织,比如微软、亚马逊、谷歌、Meta、戴尔、OpenAI、甲骨文、马斯克领导的特斯拉和 xAI。黄仁勋介绍了包括这些公司在内的更多合作伙伴。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4b0528111da97466d59ccacbb68efbea\" title=\"\" tg-width=\"640\" tg-height=\"346\"/></p><p style=\"text-align: justify;\">黄仁勋还提到,台积电和Synopsys将采用英伟达计算光刻技术,起用英伟达的计算光刻平台CuLitho。</p><p style=\"text-align: justify;\">台积电和Synopsys已经整合英伟达的Culitho W软件。他们将用英伟达的下一代 Blackwell GPU 来实现AI 和 HPC 应用。</p><h2 id=\"id_172045103\">新软件NIM让用户更容易利用已有英伟达GPU进行AI推理</h2><p style=\"text-align: justify;\">英伟达同时宣布推出名为英伟达NIM的推理微服务,它是优化的云原生微服务,旨在缩短生成式 AI 模型的上市时间并简化它们在云、数据中心和 GPU 加速工作站上的部署。</p><p style=\"text-align: justify;\">英伟达NIM通过使用行业标准 API 抽象化 AI 模型开发和生产包装的复杂性来扩展开发人员库。它是英伟达AI Enterprise 的一部分,为开发 AI 驱动的企业应用程序和在生产中部署 AI 模型提供了简化的路径。</p><p style=\"text-align: justify;\">NIM让用户使用旧版英伟达GPU进行推理或运行AI软件的过程变得更容易,并允许企业客户继续用他们已有的英伟达GPU。推理所需的算力比最初训练新的AI模型的少。 NIM 让企业能运行自己的AI 模型,而不是从OpenAI 等公司购买AI的成果。</p><p style=\"text-align: justify;\">基于英伟达服务器的客户只要订阅英伟达AI Enterprise 就可使用NIM,每个GPU每年的许可费用为 4500 美元。</p><p style=\"text-align: justify;\">英伟达将与微软和Hugging Face 等AI公司合作,确保他们的AI模型能够在所有兼容的英伟达芯片上运行。使用NIM的开发者可以在自己的服务器或基于云的 英伟达服务器上高效地运行模型,而无需冗长的配置过程。</p><p style=\"text-align: justify;\">评论称,NIM这种软件让部署AI变得更容易,不但为英伟达创收,而且给客户提供了又一个坚持使用英伟达芯片的理由。</p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>英伟达AI盛会GTC揭幕,最强AI芯片Blackwell来了!</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n英伟达AI盛会GTC揭幕,最强AI芯片Blackwell来了!\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-19 04:22 北京时间 <a href=https://api.jianyuweb.com/apiv1/content/articles/3710748?extract=1><strong>华尔街见闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>》》全程回顾:英伟达 GTC 2024 主题演讲英伟达称,Blackwell的成本和能耗较前代改善25倍,是全球最强大芯片,由 2080 亿个晶体管组成,采用台积电4nm制程,支持多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理;GB200 NVL72推理性能较H100提升高达30倍;亚马逊、微软、谷歌和甲骨文在首批提供Blackwell支持的云服务商之列;台积电和Synopsys...</p>\n\n<a href=\"https://api.jianyuweb.com/apiv1/content/articles/3710748?extract=1\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/7683a80338b6c1f21a8c19e2e5c4545b","relate_stocks":{"LU0276348264.USD":"THREADNEEDLE (LUX) GLOBAL DYNAMIC REAL RETURN\"AUP\" (USD) INC","LU0316494557.USD":"FRANKLIN GLOBAL FUNDAMENTAL STRATEGIES \"A\" ACC","LU0061475181.USD":"THREADNEEDLE (LUX) AMERICAN \"AU\" (USD) ACC","IE00BFSS8Q28.SGD":"Janus Henderson Balanced A Inc SGD-H","LU0289961442.SGD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"AX\" (SGD) ACC","IE0034235188.USD":"PINEBRIDGE GLOBAL FOCUS EQUITY \"A\" (USD) ACC","BK4529":"IDC概念","BK4548":"巴美列捷福持仓","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","IE00B3M56506.USD":"NEUBERGER BERMAN EMERGING MARKETS EQUITY \"A\" (USD) ACC","BK4554":"元宇宙及AR概念","LU0289739343.SGD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"A\" (SGD) ACC","IE00B7KXQ091.USD":"Janus Henderson Balanced A Inc USD","BK4532":"文艺复兴科技持仓","LU0256863811.USD":"ALLIANZ US EQUITY \"A\" INC","LU0466842654.USD":"HSBC ISLAMIC GLOBAL EQUITY INDEX \"A\" (USD) ACC","IE0009356076.USD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A2\" (USD) ACC","LU0348723411.USD":"ALLIANZ GLOBAL HI-TECH GROWTH \"A\" (USD) INC","BK4567":"ESG概念","BK4585":"ETF&股票定投概念","IE00BD6J9T35.USD":"NEUBERGER BERMAN NEXT GENERATION MOBILITY \"A\" (USD) ACC","BK4534":"瑞士信贷持仓","LU0109391861.USD":"富兰克林美国机遇基金A Acc","BK4533":"AQR资本管理(全球第二大对冲基金)","IE0004445239.USD":"JANUS HENDERSON US FORTY \"A2\" (USD) ACC","IE00B19Z9505.USD":"美盛-美国大盘成长股A Acc","LU0170899867.USD":"EASTSPRING INVESTMENTS WORLD VALUE EQUITY \"A\" (USD) ACC","IE00BJJMRX11.SGD":"Janus Henderson Balanced A Acc SGD","LU0053666078.USD":"摩根大通基金-美国股票A(离岸)美元","LU0079474960.USD":"联博美国增长基金A","LU0082616367.USD":"摩根大通美国科技A(dist)","GB00BDT5M118.USD":"天利环球扩展Alpha基金A Acc","LU0056508442.USD":"贝莱德世界科技基金A2","LU0719512351.SGD":"JPMorgan Funds - US Technology A (acc) SGD","BK4543":"AI","IE00B1XK9C88.USD":"PINEBRIDGE US LARGE CAP RESEARCH ENHANCED \"A\" (USD) ACC","LU0353189680.USD":"富国美国全盘成长基金Cl A Acc","LU0061474960.USD":"天利环球焦点基金AU Acc","BK4527":"明星科技股","IE00BKDWB100.SGD":"PINEBRIDGE US LARGE CAP RESEARCH ENHANCED \"A5H\" (SGDHDG) ACC","BK4550":"红杉资本持仓","IE00BMPRXR70.SGD":"Neuberger Berman 5G Connectivity A Acc SGD-H","IE00BJJMRY28.SGD":"Janus Henderson Balanced A Inc SGD","NVDA":"英伟达","IE00BMPRXN33.USD":"NEUBERGER BERMAN 5G CONNECTIVITY \"A\" (USD) ACC","BK4141":"半导体产品","LU0820561909.HKD":"ALLIANZ INCOME AND GROWTH \"AM\" (HKD) INC","LU0109392836.USD":"富兰克林科技股A","BK4503":"景林资产持仓","BK4551":"寇图资本持仓","LU0353189763.USD":"ALLSPRING US ALL CAP GROWTH FUND \"I\" (USD) ACC","IE0004445015.USD":"JANUS HENDERSON BALANCED \"A2\" (USD) ACC","LU0061474705.USD":"THREADNEEDLE (LUX) GLOBAL DYNAMIC REAL RETURN \"AU\" (USD) ACC","LU0097036916.USD":"贝莱德美国增长A2 USD","LU0511384066.AUD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"A\" (AUDHDG) ACC","LU0689472784.USD":"安联收益及增长基金Cl AM AT Acc","BK4549":"软银资本持仓","IE00B1BXHZ80.USD":"Legg Mason ClearBridge - US Appreciation A Acc USD"},"source_url":"https://api.jianyuweb.com/apiv1/content/articles/3710748?extract=1","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2420235326","content_text":"》》全程回顾:英伟达 GTC 2024 主题演讲英伟达称,Blackwell的成本和能耗较前代改善25倍,是全球最强大芯片,由 2080 亿个晶体管组成,采用台积电4nm制程,支持多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理;GB200 NVL72推理性能较H100提升高达30倍;亚马逊、微软、谷歌和甲骨文在首批提供Blackwell支持的云服务商之列;台积电和Synopsys将采用英伟达计算光刻技术;英伟达推出新软件NIM,让用户更容易利用已有英伟达GPU进行AI推理。号称今年全球头号人工智能(AI)领域开发者大会的英伟达2024 GTC AI大会于美东时间3月18日周一拉开帷幕。今年是英伟达时隔五年首次让年度GTC重回线下,也是此前分析认为英伟达要“拿出点真家伙”的AI盛会。当地时间周一下午,英伟达创始人兼CEO 黄仁勋在美国加州圣何塞SAP中心进行主题为“面向开发者的1#AI峰会”(1# AI Conference for Developers)演讲。Blackwell成本和能耗较前代改善25倍 全球最强大芯片 台积电4 nm制程黄仁勋介绍了运行AI模型的新一代芯片和软件。英伟达正式推出名为Blackwell的新一代AI图形处理器(GPU),预计将在今年晚些时候发货。Blackwell平台能够在万亿参数级的大型语言模型(LLM)上构建和运行实时生成式 AI,而成本和能耗比前代改善25倍。英伟达称,Blackwell拥有六项革命性的技术,可以支持多达10万亿参数的模型进行AI训练和实时LLM推理:全球最强大的芯片:Blackwell 架构 GPU由 2080 亿个晶体管组成,采用量身定制的台积电4纳米(nm)工艺制造,两个reticle极限GPU裸片将10 TB/秒的芯片到芯片链路连接成单个统一的GPU 。第二代 Transformer引擎:结合了Blackwell Tensor Core技术和TensorRT-LLM和 NeMo Megatron 框架中的 英伟达先进动态范围管理算法,Blackwell 将通过新的4位浮点AI 支持双倍的计算和模型大小推理能力。第五代 NVLink:为提高数万亿参数和混合专家AI 模型的性能,最新一代英伟达NVLink为每个 GPU 提供了突破性的 1.8TB/s 双向吞吐量,确保最复杂LLM之间多达576 个GPU 之间的无缝高速通信。RAS 引擎 :Blackwell 支持的 GPU 包含一个专用引擎,实现可靠性、可用性和服务性。 此外,Blackwell 架构还增加了芯片级功能,利用基于AI的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模AI的弹性,使其能连续运行数周甚至数月,并降低运营成本。安全人工智能:先进的机密计算功能可在不影响性能的情况下保护AI模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。 未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由 GPU 加速。GB200 NVL72推理性能较H100提升高达30倍英伟达同时介绍超级芯片GB200 Grace Blackwell Superchip,它通过 900GB/s的超低功耗NVLink,将两个B200 Tensor Core GPU 连接到NVIDIA Grace CPU。为了获得最高的 AI 性能,GB200 驱动的系统可以与周一同时宣布的英伟达Quantum-X800 InfiniBand 和 Spectrum-X800 以太网平台连接,这些平台可提供速度高达 800Gb/s 的高级网络。GB200是英伟达GB200 NVL72 的关键组件,GB200 NVL72 是一种多节点、液冷、机架规模系统,适用于计算最密集的工作负载。 它结合了 36 个 Grace Blackwell 超级芯片,其中包括通过第五代 NVLink 互连的 72 个 Blackwell GPU 和 36 个 Grace CPU。GB200 NVL72 还包括 NVIDIA BlueField®-3 数据处理单元,可在超大规模 AI 云中实现云网络加速、可组合存储、零信任安全性和 GPU 计算弹性。相比数量的H100 Tensor Core GPU 相比,GB200 NVL72 对于 LLM 推理工作负载的性能提升高达 30 倍,并将成本和能耗降低高达 25 倍。GB200 NVL72平台充当单个 GPU具有 1.4 exaflops 的 AI 性能和 30TB 的快速内存,是最新 DGX SuperPOD 的构建块。英伟达推出服务器主板HGX B200,它通过 NVLink 连接八个 B200 GPU,以支持基于 x86 的生成式 AI 平台。 HGX B200 通过英伟达Quantum-2 InfiniBand 和 Spectrum-X 以太网网络平台支持高达 400Gb/s 的网络速度。亚马逊、微软、谷歌和甲骨文在首批提供Blackwell支持的云服务商之列Blackwell芯片将成为亚马逊、微软、谷歌这类全球最大数据中心运营商部署新电脑和其他产品的基础。基于Blackwell的产品将在今年晚些时候问世。英伟达称,亚马逊云AWS、谷歌云、微软云Azure 和甲骨文云基础设施Oracle Cloud Infrastructure将成为首批提供Blackwell支持实例的云服务提供商,英伟达云合作伙伴计划的成员公司Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也将成为首批提供 Blackwell 实例的云服务提供商。 面向主权的Sovereign AI 云还将提供基于 Blackwell 的云服务和基础设施,包括 Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle欧盟主权云、Oracle 美国、英国和澳大利亚政府云、Scaleway、Singtel、Northern Data Group 的 Taiga Cloud、 Yotta Data Services 的 Shakti Cloud 和 YTL Power International。黄仁勋说,“三十年来,我们一直在追求加速计算,目标是实现深度学习和AI这类方面的变革性突破。生成式AI是我们这个时代的决定性技术。 Blackwell是推动这场新工业革命的引擎。 通过与世界上最具活力的公司合作,我们将实现AI在各行各业的承诺。”英伟达在公告通稿中列举了料将采用Blackwell的一些组织,比如微软、亚马逊、谷歌、Meta、戴尔、OpenAI、甲骨文、马斯克领导的特斯拉和 xAI。黄仁勋介绍了包括这些公司在内的更多合作伙伴。黄仁勋还提到,台积电和Synopsys将采用英伟达计算光刻技术,起用英伟达的计算光刻平台CuLitho。台积电和Synopsys已经整合英伟达的Culitho W软件。他们将用英伟达的下一代 Blackwell GPU 来实现AI 和 HPC 应用。新软件NIM让用户更容易利用已有英伟达GPU进行AI推理英伟达同时宣布推出名为英伟达NIM的推理微服务,它是优化的云原生微服务,旨在缩短生成式 AI 模型的上市时间并简化它们在云、数据中心和 GPU 加速工作站上的部署。英伟达NIM通过使用行业标准 API 抽象化 AI 模型开发和生产包装的复杂性来扩展开发人员库。它是英伟达AI Enterprise 的一部分,为开发 AI 驱动的企业应用程序和在生产中部署 AI 模型提供了简化的路径。NIM让用户使用旧版英伟达GPU进行推理或运行AI软件的过程变得更容易,并允许企业客户继续用他们已有的英伟达GPU。推理所需的算力比最初训练新的AI模型的少。 NIM 让企业能运行自己的AI 模型,而不是从OpenAI 等公司购买AI的成果。基于英伟达服务器的客户只要订阅英伟达AI Enterprise 就可使用NIM,每个GPU每年的许可费用为 4500 美元。英伟达将与微软和Hugging Face 等AI公司合作,确保他们的AI模型能够在所有兼容的英伟达芯片上运行。使用NIM的开发者可以在自己的服务器或基于云的 英伟达服务器上高效地运行模型,而无需冗长的配置过程。评论称,NIM这种软件让部署AI变得更容易,不但为英伟达创收,而且给客户提供了又一个坚持使用英伟达芯片的理由。","news_type":1},"isVote":1,"tweetType":1,"viewCount":710,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":4,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/285843645604016"}
精彩评论