AMD发布新型服务器芯片
AMD在旧金山展会上发布了新的服务器芯片,该芯片采用Zen 5架构,提供高达37%的速度提升,适用于高级人工智能数据处理。
最新新闻
10-11
抢当英伟达H200“平替” AMD新款AI芯片年底前投产
抢当英伟达H200“平替” AMD新款AI芯片年底前投产
10-11
AMD“硬刚”英伟达!新款AI芯片重磅发布,与Blackwell正面交锋,推理性能比H200高出40%
AMD“硬刚”英伟达!新款AI芯片重磅发布,与Blackwell正面交锋,推理性能比H200高出40%
10-11
AMD昨日发布新款AI芯片,股价为何不涨反跌?
AMD昨日发布新款AI芯片,股价为何不涨反跌?
10-11
王炸芯片刚发布,AMD股价下跌4%?但CEO非常乐观
王炸芯片刚发布,AMD股价下跌4%?但CEO非常乐观
10-11
瞄准英伟达GPU,AMD今年四季度量产AI芯片MI325X
瞄准英伟达GPU,AMD今年四季度量产AI芯片MI325X
10-11
AMD推出最新AI芯片,加剧英伟达和英特尔的竞争
AMD推出最新AI芯片,加剧英伟达和英特尔的竞争
10-11
力拼英伟达,AMD AI芯片新品亮相,全线围攻AI领域
力拼英伟达,AMD AI芯片新品亮相,全线围攻AI领域
10-11
异动解读 | AMD发布新AI芯片,但股价大跌5%,分析称新品未明显改变近期财务前景
异动解读 | AMD发布新AI芯片,但股价大跌5%,分析称新品未明显改变近期财务前景
10-11
早报 (10.11)| 赶超英伟达、“拳打”英特尔?AMD发布最强AI芯片;上交所召集8家券商开会;美军战斗机已抵达中东!
早报 (10.11)| 赶超英伟达、“拳打”英特尔?AMD发布最强AI芯片;上交所召集8家券商开会;美军战斗机已抵达中东!
10-11
AMD预计新款人工智能芯片将于今年晚些时候量产
AMD预计新款人工智能芯片将于今年晚些时候量产
10-11
AMD预计新款人工智能芯片将于今年晚些时候量产
AMD预计新款人工智能芯片将于今年晚些时候量产
10-11
AMD发布新AI芯片和CPU,股价应声下跌4%:挑战英伟达的市场主导地位
AMD发布新AI芯片和CPU,股价应声下跌4%:挑战英伟达的市场主导地位
10-11
AMD推出AI芯片:将与英伟达Blackwell展开竞争
AMD推出AI芯片:将与英伟达Blackwell展开竞争
10-11
经纬早班车|AMD股价大跌,新型AI芯片不及预期;特斯拉Robotaxi即将亮相
经纬早班车|AMD股价大跌,新型AI芯片不及预期;特斯拉Robotaxi即将亮相
10-11
隔夜要闻:欧美股指收跌 AMD发布新AI芯片 道明银行承认指控 美国30年期抵押贷款利率创4月以来最大单周涨幅
隔夜要闻:欧美股指收跌 AMD发布新AI芯片 道明银行承认指控 美国30年期抵押贷款利率创4月以来最大单周涨幅
10-11
AMD(AMD.US)发布新人工智能芯片 旨在与英伟达(NVDA.US)Blackwell展开竞争
AMD(AMD.US)发布新人工智能芯片 旨在与英伟达(NVDA.US)Blackwell展开竞争
10-11
苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台
苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台
10-11
外盘头条:美国30年期抵押贷款利率创4月以来最大单周涨幅 本田在华销量连续3个月跌超40% AMD发布新AI芯片
外盘头条:美国30年期抵押贷款利率创4月以来最大单周涨幅 本田在华销量连续3个月跌超40% AMD发布新AI芯片
10-11
AMD股价下挫 发布新型AI芯片但未带来投资者盼望的信息
AMD股价下挫 发布新型AI芯片但未带来投资者盼望的信息
10-11
AMD预计:下一个人工智能芯片将在今年晚些时候大规模生产
AMD预计:下一个人工智能芯片将在今年晚些时候大规模生产
10-11
异动解读 | AMD新品发布会反响平平,投资者为新AI芯片前景存疑
异动解读 | AMD新品发布会反响平平,投资者为新AI芯片前景存疑
10-11
7x24快讯
7x24快讯
10-11
7x24快讯
7x24快讯
10-11
AMD 携新型服务器芯片亮相旧金山展会
AMD 携新型服务器芯片亮相旧金山展会
10-11
更新版 3-AMD 在旧金山发布会上发布新款人工智能和服务器芯片
更新版 3-AMD 在旧金山发布会上发布新款人工智能和服务器芯片
10-11
更新版 6-AMD 预计下一款人工智能芯片将于今年晚些时候量产
更新版 6-AMD 预计下一款人工智能芯片将于今年晚些时候量产
10-11
更新版 2-AMD 在旧金山发布会上发布新款人工智能和服务器芯片
更新版 2-AMD 在旧金山发布会上发布新款人工智能和服务器芯片
10-11
7x24快讯
7x24快讯
展示更多
用户讨论
跳跳虎虎
10-11
跌的不应该是英伟达吗?[捂脸]
苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台
Julio堂
10-11
AMD经典越发布当天跌越深,但它是一支不会让真正投资人亏钱的股票
苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台
今夜打老虎2024
10-11
为什么AM D今天跌了[捂脸]
苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台
星际竹隐士
10-11
牛逼
苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台
加载更多
APP内打开
{"i18n":{"language":"zh_CN"},"financialEventData":{"themeId":"646e18a5e57edf88751c6ec58138b732","name":"AMD发布新型服务器芯片","description":"AMD在旧金山展会上发布了新的服务器芯片,该芯片采用Zen 5架构,提供高达37%的速度提升,适用于高级人工智能数据处理。","image":"https://static.tigerbbs.com/1201dcc0482be040348fb8d4f228bb68","type":2,"style":4,"follow":false,"createTime":1728577526892,"userCounts":0,"rnLink":"https://laohu8.com/RN?name=RNTheme&page=/theme/special/finance&rndata={\"themeId\":646e18a5e57edf88751c6ec58138b732}&rnconfig={\"headerBarHidden\": true}","subscribe":false,"allowFollow":false,"hasReward":false,"rewardScore":0,"rewardValidDate":0,"rewardEnd":false,"symbols":["AMD","AMD.O"],"tweetCounts":4,"categoryId":"2929bb7468f5415f853fd96fb35d7c3b","options":[],"votedOptionId":"","totalUserCount":0,"followStatus":false,"themeName":"AMD发布新型服务器芯片","tweetAmount":4,"imageIsDefault":true},"news":[{"id":72231,"article_id":"2474093617","title":"抢当英伟达H200“平替” AMD新款AI芯片年底前投产","subtitle":"","subtitle_show":0,"pub_time":1728647990000,"source_id":"stock_eastmoney","language":"zh","url":"http://finance.eastmoney.com/a/202410113203800861.html","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"NVDA":0.9,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":72198,"article_id":"2474064489","title":"AMD“硬刚”英伟达!新款AI芯片重磅发布,与Blackwell正面交锋,推理性能比H200高出40%","subtitle":"","subtitle_show":0,"pub_time":1728643944000,"source_id":"tencent","language":"zh","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011185305a1dffabe&s=b","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"NVDA":0.9,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":{"source":"tencent","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011185305a1dffabe&s=b","rn_cache_url":null,"customStyle":"body{padding-top:10px;}#news_title{font-weight:bold;#titleStyle#;}#news_description span{font-size:12px;#descriptionStyle#;}.footer-note{#statement#}","selectors":".mod-LoadTzbdNews, body","filters":".relate-stock, .hot-list, .recom-box, .wx-sou","directOrigin":true}},{"id":72118,"article_id":"2474030788","title":"AMD昨日发布新款AI芯片,股价为何不涨反跌?","subtitle":"","subtitle_show":0,"pub_time":1728628967000,"source_id":"investing_news","language":"zh","url":"https://cn.investing.com/news/stock-market-news/article-2510735","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"NVDA":0.7,"SMCI":0.6},"rights":null},{"id":72134,"article_id":"2474056650","title":"王炸芯片刚发布,AMD股价下跌4%?但CEO非常乐观","subtitle":"","subtitle_show":0,"pub_time":1728626632000,"source_id":"fenghuang_stock","language":"zh","url":"https://tech.ifeng.com/c/8daugeJ1rmq","is_publish_highlight":0,"symbols_score_info":{"159813":1,"AMD":1,"GFS":1},"rights":{"source":"fenghuang_stock","url":"https://tech.ifeng.com/c/8daugeJ1rmq","rn_cache_url":null,"customStyle":"","selectors":"article, body","filters":"","directOrigin":true}},{"id":72083,"article_id":"2474369120","title":"瞄准英伟达GPU,AMD今年四季度量产AI芯片MI325X","subtitle":"","subtitle_show":0,"pub_time":1728621600000,"source_id":"tencent","language":"zh","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011124101959f1c44&s=b","is_publish_highlight":0,"symbols_score_info":{"GFS":1,"AMD":1,"NVDA":0.7,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":{"source":"tencent","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011124101959f1c44&s=b","rn_cache_url":null,"customStyle":"body{padding-top:10px;}#news_title{font-weight:bold;#titleStyle#;}#news_description span{font-size:12px;#descriptionStyle#;}.footer-note{#statement#}","selectors":".mod-LoadTzbdNews, body","filters":".relate-stock, .hot-list, .recom-box, .wx-sou","directOrigin":true}},{"id":72035,"article_id":"2474408407","title":"AMD推出最新AI芯片,加剧英伟达和英特尔的竞争","subtitle":"","subtitle_show":0,"pub_time":1728614358000,"source_id":"tencent","language":"zh","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011104118959ed878&s=b","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"NVDA":0.7,"INTC":0.7,"L":0.6,"SMCI":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":{"source":"tencent","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011104118959ed878&s=b","rn_cache_url":null,"customStyle":"body{padding-top:10px;}#news_title{font-weight:bold;#titleStyle#;}#news_description span{font-size:12px;#descriptionStyle#;}.footer-note{#statement#}","selectors":".mod-LoadTzbdNews, body","filters":".relate-stock, .hot-list, .recom-box, .wx-sou","directOrigin":true}},{"id":72029,"article_id":"2474085055","title":"力拼英伟达,AMD AI芯片新品亮相,全线围攻AI领域","subtitle":"","subtitle_show":0,"pub_time":1728609967000,"source_id":"gelonghui_highlight","language":"zh","url":"https://www.gelonghui.com/p/1143148","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"NVDA":0.7,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":72021,"article_id":"1199577881","title":"异动解读 | AMD发布新AI芯片,但股价大跌5%,分析称新品未明显改变近期财务前景","subtitle":"","subtitle_show":0,"pub_time":1728609034577,"source_id":"ai_movement_cn","language":"zh","url":"","is_publish_highlight":0,"symbols_score_info":{"AMD":1},"rights":null},{"id":72010,"article_id":"2474670749","title":"早报 (10.11)| 赶超英伟达、“拳打”英特尔?AMD发布最强AI芯片;上交所召集8家券商开会;美军战斗机已抵达中东!","subtitle":"","subtitle_show":0,"pub_time":1728605880000,"source_id":"gelonghui_highlight","language":"zh","url":"https://www.gelonghui.com/p/1143012","is_publish_highlight":0,"symbols_score_info":{"GFS":1,"AMD":0.9,"NVDA":0.8,"TSLA":0.7,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":72000,"article_id":"2474702734","title":"AMD预计新款人工智能芯片将于今年晚些时候量产","subtitle":"","subtitle_show":0,"pub_time":1728605370000,"source_id":"live_meigang","language":"zh","url":"https://www.ushknews.com/","is_publish_highlight":0,"symbols_score_info":{"159813":1,"161631":1,"TSM":1,"NVDA":1,"GFS":1,"TWmain":1,"AMD":1,"03145":0.6,"EWT":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6,"L":0.6},"rights":null},{"id":72001,"article_id":"2474770200","title":"AMD预计新款人工智能芯片将于今年晚些时候量产","subtitle":"","subtitle_show":0,"pub_time":1728604360000,"source_id":"reuters_news_zh","language":"zh","url":"https://api.refinitiv.com/data/news/v1/stories/urn:newsml:reuters.com:20241010:nL6T3LM0O6:1","is_publish_highlight":0,"symbols_score_info":{"GFS":1,"AMD":1,"SMCI":0.7,"NVDA":0.7,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":71992,"article_id":"1108368028","title":"AMD发布新AI芯片和CPU,股价应声下跌4%:挑战英伟达的市场主导地位","subtitle":"","subtitle_show":0,"pub_time":1728603136279,"source_id":"","language":"zh","url":"","is_publish_highlight":0,"symbols_score_info":{"NVDA":1,"GFS":1,"AMD":1,"L":0.6},"rights":null},{"id":71986,"article_id":"2474097137","title":"AMD推出AI芯片:将与英伟达Blackwell展开竞争","subtitle":"","subtitle_show":0,"pub_time":1728601344000,"source_id":"tencent","language":"zh","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN202410110709419f387bda&s=b","is_publish_highlight":0,"symbols_score_info":{"GFS":1,"AMD":1,"NVDA":0.7,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":{"source":"tencent","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN202410110709419f387bda&s=b","rn_cache_url":null,"customStyle":"body{padding-top:10px;}#news_title{font-weight:bold;#titleStyle#;}#news_description span{font-size:12px;#descriptionStyle#;}.footer-note{#statement#}","selectors":".mod-LoadTzbdNews, body","filters":".relate-stock, .hot-list, .recom-box, .wx-sou","directOrigin":true}},{"id":71993,"article_id":"2474704335","title":"经纬早班车|AMD股价大跌,新型AI芯片不及预期;特斯拉Robotaxi即将亮相","subtitle":"","subtitle_show":0,"pub_time":1728601220000,"source_id":"zxjw_stock","language":"zh","url":"http://www.jwview.com/jingwei/html/10-11/608333.shtml","is_publish_highlight":0,"symbols_score_info":{"TSLL":1,"GFS":1,"AMD":0.9},"rights":null},{"id":71977,"article_id":"2474798705","title":"隔夜要闻:欧美股指收跌 AMD发布新AI芯片 道明银行承认指控 美国30年期抵押贷款利率创4月以来最大单周涨幅","subtitle":"","subtitle_show":0,"pub_time":1728599406000,"source_id":"highlight_sina","language":"zh","url":"https://finance.sina.com.cn/stock/usstock/c/2024-10-11/doc-incscnse7921362.shtml","is_publish_highlight":0,"symbols_score_info":{"US10Y.BOND":0.68,"US12M.BOND":0.68,"US2Y.BOND":0.68,"US30Y.BOND":0.68,"US3Y.BOND":0.68,"US5Y.BOND":0.68,"US6M.BOND":0.68,"US7Y.BOND":0.68},"rights":{"source":"highlight_sina","url":"https://finance.sina.com.cn/stock/usstock/c/2024-10-11/doc-incscnse7921362.shtml","rn_cache_url":null,"customStyle":"body{padding-top:10px;}.art_tit_h1{#titleStyle#}a{#lv2TextColor#}","selectors":".art_box, article","filters":"header, .voice2, .tags, #norm_qrcode_link_auto, .unfold-box, .action, .fl_popup, .weibo_info","directOrigin":true}},{"id":71976,"article_id":"2474052537","title":"AMD(AMD.US)发布新人工智能芯片 旨在与英伟达(NVDA.US)Blackwell展开竞争","subtitle":"","subtitle_show":0,"pub_time":1728597600000,"source_id":"stock_zhitongcaijing","language":"zh","url":"http://www.zhitongcaijing.com/content/detail/1192673.html","is_publish_highlight":0,"symbols_score_info":{"159813":1,"161631":1,"GFS":1,"AMD":1,"NVDA":0.9,"L":0.6,"META":0.6,"MSFT":0.6,"2NVD.UK":0.6,"3NVD.UK":0.6},"rights":null},{"id":71971,"article_id":"1153860099","title":"苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台","subtitle":"","subtitle_show":0,"pub_time":1728597454889,"source_id":"zhidxcom","language":"zh","url":"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ","is_publish_highlight":1,"symbols_score_info":{"AMD":1},"rights":null},{"id":71969,"article_id":"2474977004","title":"外盘头条:美国30年期抵押贷款利率创4月以来最大单周涨幅 本田在华销量连续3个月跌超40% AMD发布新AI芯片","subtitle":"","subtitle_show":0,"pub_time":1728595800000,"source_id":"sina","language":"zh","url":"https://finance.sina.com.cn/stock/usstock/c/2024-10-11/doc-incschkk4816049.shtml","is_publish_highlight":0,"symbols_score_info":{"GFS":1,"ZTmain":1,"ZNmain":1,"ZFmain":1,"ZBmain":1,"UBmain":1,"TNmain":1,"AMD":0.9},"rights":{"source":"sina","url":"https://finance.sina.com.cn/stock/usstock/c/2024-10-11/doc-incschkk4816049.shtml","rn_cache_url":null,"customStyle":"body{padding-top:10px;}.art_tit_h1{#titleStyle#}a{#lv2TextColor#}.art_time, .art_cite{#sourceStyle#;} .art_cite{margin-left: 3px;}","selectors":".module-article, article","filters":"header, .voice2, .tags, #norm_qrcode_link_auto, .unfold-box, .action","directOrigin":true}},{"id":71961,"article_id":"2474772931","title":"AMD股价下挫 发布新型AI芯片但未带来投资者盼望的信息","subtitle":"","subtitle_show":0,"pub_time":1728593023000,"source_id":"tencent","language":"zh","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011044606a1dfc1e5&s=b","is_publish_highlight":0,"symbols_score_info":{"GFS":1},"rights":{"source":"tencent","url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20241011044606a1dfc1e5&s=b","rn_cache_url":null,"customStyle":"body{padding-top:10px;}#news_title{font-weight:bold;#titleStyle#;}#news_description span{font-size:12px;#descriptionStyle#;}.footer-note{#statement#}","selectors":".mod-LoadTzbdNews, body","filters":".relate-stock, .hot-list, .recom-box, .wx-sou","directOrigin":true}},{"id":71948,"article_id":"2474779545","title":"AMD预计:下一个人工智能芯片将在今年晚些时候大规模生产","subtitle":"","subtitle_show":0,"pub_time":1728589122000,"source_id":"tonghuashun","language":"zh","url":"http://news.10jqka.com.cn/20241011/c662317389.shtml","is_publish_highlight":0,"symbols_score_info":{"159813":1,"161631":1,"AMD":1},"rights":null},{"id":71945,"article_id":"1112037411","title":"异动解读 | AMD新品发布会反响平平,投资者为新AI芯片前景存疑","subtitle":"","subtitle_show":0,"pub_time":1728587428543,"source_id":"ai_movement_cn","language":"zh","url":"","is_publish_highlight":0,"symbols_score_info":{"AMD":1},"rights":null},{"id":71939,"article_id":"2474727244","title":"7x24快讯","subtitle":"","subtitle_show":0,"pub_time":1728583186000,"source_id":"live_meigang","language":"zh","url":"https://www.ushknews.com/","is_publish_highlight":0,"symbols_score_info":{"159813":1,"AMD":1,"MSFT":1,"GFS":1},"rights":null},{"id":71921,"article_id":"2474729796","title":"7x24快讯","subtitle":"","subtitle_show":0,"pub_time":1728578416000,"source_id":"live_meigang","language":"zh","url":"https://www.ushknews.com/","is_publish_highlight":0,"symbols_score_info":{"159813":1,"161631":1,"AMD":1,"GFS":1},"rights":null},{"id":71915,"article_id":"2474705726","title":"AMD 携新型服务器芯片亮相旧金山展会","subtitle":"","subtitle_show":0,"pub_time":1728577140000,"source_id":"sina","language":"zh","url":"https://finance.sina.com.cn/stock/usstock/c/2024-10-11/doc-incsavuq5031261.shtml","is_publish_highlight":0,"symbols_score_info":{"159813":1,"AMD":1,"GFS":1},"rights":{"source":"sina","url":"https://finance.sina.com.cn/stock/usstock/c/2024-10-11/doc-incsavuq5031261.shtml","rn_cache_url":null,"customStyle":"body{padding-top:10px;}.art_tit_h1{#titleStyle#}a{#lv2TextColor#}.art_time, .art_cite{#sourceStyle#;} .art_cite{margin-left: 3px;}","selectors":".module-article, article","filters":"header, .voice2, .tags, #norm_qrcode_link_auto, .unfold-box, .action","directOrigin":true}},{"id":71936,"article_id":"2474972482","title":"更新版 3-AMD 在旧金山发布会上发布新款人工智能和服务器芯片","subtitle":"","subtitle_show":0,"pub_time":1728576671000,"source_id":"reuters_news_zh","language":"zh","url":"https://api.refinitiv.com/data/news/v1/stories/urn:newsml:reuters.com:20241010:nL4S3LM1AN:3","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"NVDA":0.7,"INTC":0.6,"L":0.6,"META":0.6,"MSFT":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":71949,"article_id":"2474779651","title":"更新版 6-AMD 预计下一款人工智能芯片将于今年晚些时候量产","subtitle":"","subtitle_show":0,"pub_time":1728576671000,"source_id":"reuters_news_zh","language":"zh","url":"https://api.refinitiv.com/data/news/v1/stories/urn:newsml:reuters.com:20241010:nL4T3LM1AN:6","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"L":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":71928,"article_id":"2474721833","title":"更新版 2-AMD 在旧金山发布会上发布新款人工智能和服务器芯片","subtitle":"","subtitle_show":0,"pub_time":1728576671000,"source_id":"reuters_news_zh","language":"zh","url":"https://api.refinitiv.com/data/news/v1/stories/urn:newsml:reuters.com:20241010:nL4S3LM1AN:2","is_publish_highlight":0,"symbols_score_info":{"AMD":1,"GFS":1,"SMCI":0.7,"NVDA":0.7,"L":0.6,"META":0.6,"MSFT":0.6,"3NVD.UK":0.6,"2NVD.UK":0.6},"rights":null},{"id":71916,"article_id":"2474725470","title":"7x24快讯","subtitle":"","subtitle_show":0,"pub_time":1728576194000,"source_id":"live_meigang","language":"zh","url":"https://www.ushknews.com/","is_publish_highlight":0,"symbols_score_info":{"159813":1,"161631":1,"GFS":1,"AMD":1},"rights":null}],"views":[],"tweetList":[{"id":358850461622504,"gmtCreate":1728618006930,"gmtModify":1728618009022,"author":{"id":"3462668739080724","authorId":"3462668739080724","name":"跳跳虎虎","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3462668739080724","idStr":"3462668739080724"},"themes":[],"htmlText":"跌的不应该是英伟达吗?[捂脸] ","listText":"跌的不应该是英伟达吗?[捂脸] ","text":"跌的不应该是英伟达吗?[捂脸]","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/358850461622504","repostId":"1153860099","repostType":2,"repost":{"id":"1153860099","kind":"news","pubTimestamp":1728597454,"share":"https://www.laohu8.com/m/news/1153860099?lang=&edition=full","pubTime":"2024-10-11 05:57","market":"us","language":"zh","title":"苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台","url":"https://stock-news.laohu8.com/highlight/detail?id=1153860099","media":"智东西","summary":"AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。","content":"<html><head></head><body><blockquote><p><strong>五大硬核新品,轰向AI计算!</strong></p></blockquote><p>猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7b7a4f0e5a95440e6edb4997ce0201b\" alt=\"\" title=\"\" tg-width=\"640\" tg-height=\"351\"/></p><p>10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。</p><p>AMD倾囊倒出了一系列AI杀手锏,发布<strong>全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器</strong>,将AI计算的战火烧得更旺。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0194eb48384f8ddc05a21f54441f241\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>这家芯片巨头还大秀AI朋友圈,现场演讲集齐了<strong>谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI</strong>等重量级AI生态伙伴。</p><p>备受期待的旗舰AI芯片<strong>AMD Instinct MI325X GPU</strong>首次启用<strong>HBM3E</strong>高带宽内存,AI峰值算力达到<strong>21PFLOPS</strong>,并与去年发布的、同样采用HBM3E的<strong>英伟达H200 GPU用数据掰手腕</strong>:<strong>内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e02b6b8cddfd1b36b568b554e8dfa191\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"561\"/></p><p>AMD还披露了最新的AI芯片路线图,采用<strong>CDNA 4架构</strong>的<strong>MI350系列明年上市</strong>,其中MI355X的AI峰值算力达到<strong>74PFLOPS</strong>,MI400系列将采用<strong>更先进的CDNA架构</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/131f12695357c4e62037807ec992a5c2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了<strong>业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400</strong>和性能翻倍提升的<strong>Pensando Salina 400 DPU</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2d307944f497799ea021032932265bbc\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>另一款重磅新品是<strong>第五代EPYC服务器CPU</strong>,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持<strong>192核</strong>、<strong>384个线程</strong>。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ec2a20233b5bb38842b668881bd66119\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"907\"/></p><p>与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达<strong>2.7倍</strong>,企业级性能提高多达<strong>4.0倍</strong>,HPC(高性能计算)性能提高多达<strong>3.9倍</strong>,基于CPU的AI加速提高多达<strong>3.8倍</strong>,GPU主机节点提升多达<strong>1.2倍</strong>。</p><p>自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有<strong>2%</strong>,今年上半年已攀爬到<strong>34%</strong>,在全球覆盖超过950个云实例和超过350个OxM平台。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9bf26fb08b3d7c339ff78a968ba363e7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"610\"/></p><p>AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。</p><p>AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器<strong>锐龙AI PRO 300系列</strong>。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过<strong>100万台</strong>锐龙AI PRO PC上市。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f339f2ec35816a85512ce105a3a2f9de\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"464\"/></p><p><strong><em>01.</em></strong></p><p><strong>旗舰AI芯片三代同堂:</strong></p><p><strong>内存容量带宽暴涨,峰值算力冲9.2PF</strong></p><p>AI芯片,正成为AMD业务增长的重头戏。</p><p>AMD去年12月发布的Instinct MI300X加速器,已经成为<strong>AMD历史上增长最快的产品</strong>,<strong>不到两个季度</strong>销售额就超过了<strong>10亿美元</strong>。</p><p>今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的<strong>Instinct MI325X</strong>。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过<strong>45亿美元</strong>。</p><p><strong>微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)</strong>等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c4cce27e737ce1a19579cb8c89fb9d7b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"775\"/></p><p>微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。</p><p>基于Llama 3.1 405B运行<strong>对话式AI、内容生成、AI Agent及聊天机器人、总结摘要</strong>等任务时,MI300的推理速度最多达到英伟达H100的<strong>1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/95deab354ee277b2cd3b4a5bf999b333\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>新推出的<strong>MI325X</strong>进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快<strong>20%~40%</strong>。</p><p></p><p>MI325X拥有<strong>1530亿颗晶体管</strong>,采用CDNA 3架构、<strong>256GB HBM3E</strong>内存,内存带宽达<strong>6TB/s</strong>,FP8峰值性能达到<strong>2.6PFLOPS</strong>,FP16峰值性能达到<strong>1.3PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2f2c29bc84436a0848992da2cf0a1aec\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"555\"/></p><p>由8张MI325X组成的服务器平台有<strong>2TB HBM3E</strong>内存;内存带宽达到<strong>48TB/s</strong>;Infinity Fabric总线带宽为<strong>896GB/s</strong>;FP8性能最高达<strong>20.8PFLOPS</strong>,FP16性能最高达<strong>10.4PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0b2dce0d2d0e2cdd0c7f85ffd801af2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高<strong>40%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0e893fe22e4b02e876ba23554198aa00\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>从训练性能来看,单张MI325X训练Llama 2 7B的速度<strong>超过单张H200</strong>,8张MI325X训练Llama 2 70B的性能<strong>比肩H200 HGX</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd1145a1a0fbce00ac65fa50e519b5c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD Instinct MI325X加速器或将于<strong>今年第四季度</strong>投产,将从<strong>明年第一季度</strong>起为平台供应商提供。</p><p>下一代<strong>MI350</strong>系列采用<strong>3nm制程工艺</strong>、新一代<strong>CDNA 4架构</strong>、<strong>288GB HBM3E</strong>内存,新增对<strong>FP4/FP6</strong>数据类型的支持,推理性能相比基于CDNA 3的加速器有高达<strong>35倍</strong>的提升,有望在<strong>2025年下半年</strong>上市。</p><p></p><p><strong>MI355X</strong>加速器的FP8和FP16性能相比MI325X提升了<strong>80%</strong>,FP16峰值性能达到<strong>2.3PFLOPS</strong>,FP8峰值性能达到<strong>4.6PFLOPS</strong>,FP6和FP4峰值性能达到<strong>9.2PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2dd2a8b878ebd31a33d7b01264c44565\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>8张MI355X共有<strong>2.3TB HBM3E</strong>内存,内存带宽达到<strong>64TB/s</strong>,FP16峰值性能达到<strong>18.5PFLOPS</strong>,FP8峰值性能达到<strong>37PFLOPS</strong>,新增FP6和FP4的峰值性能为<strong>74PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e002d554eb4a0475edfb14e9c0f20787\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"496\"/></p><p>三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达<strong>7.4倍</strong>、HBM内存提高多达<strong>1.5倍</strong>、支持的模型参数量提升幅度接近<strong>6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3960554d9c69ea50650a105cc0d6b698\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"531\"/></p><p>AMD持续投资软件和开放生态系统,在<strong>AMD ROCm</strong>开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过<strong>100万款</strong>模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/af7b4ed19ddb9050c377b16a5c93c031\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的<strong>2.4倍</strong>、<strong>1.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/797f5960d6f04b7bbb4d9a9f85c7739f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>此前AMD收购了欧洲最大的私人AI实验室<strong>Silo AI</strong>,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。</p><p><strong><em>02.</em></strong></p><p><strong>下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU</strong></p><p>网络是实现最佳系统性能的基础。AI模型平均有<strong>30%</strong>的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了<strong>40%-75%</strong>的时间。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e2f76e5a1aac82eef4cdf5799cad3ca7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>AI网络</strong>分为前端和后端:<strong>前端</strong>向AI集群提供数据和信息,可编程DPU不断发展;<strong>后端</strong>管理加速器与集群间的数据传输,关键在于获得最大利用率。</p><p>为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的<strong>Pensando Salina 400 DPU</strong>和应用于后端网络的<strong>Pensando Pollara 400网卡</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9441441b2cce432b1950cf545ec40670\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"419\"/></p><p><strong>Salina 400</strong>是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的<strong>两倍</strong>;<strong>Pollara 400</strong>是<strong>业界首款</strong>支持超以太网联盟(UEC)的AI网卡。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c75467cf530a4fdd01dab4c9ec54e68e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>Salina 400支持<strong>400G</strong>吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。</p><p>Pollara 400采用<strong>AMD P4可编程引擎</strong>,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8da1694e8e69813855db46082cc3d775\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的<strong>6倍</strong>,整体完成速度是RoCEv2的<strong>5倍</strong>。</p><p>在后端网络,相比InfiniBand,<strong>以太网RoCEv2</strong>是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过<strong>50%</strong>,能够扩展<strong>100万张</strong>GPU。而InfiniBand至多能扩展<strong>48000张</strong>GPU。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a138e9f4bcdcb966b7fad8a863fb9a3\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong><em>03.</em></strong></p><p><strong>服务器CPU:</strong></p><p><strong>3/4nm制程,最多192核/384线程</strong></p><p>今年7月公布财报时,苏姿丰提到今年上半年,有超过<strong>1/3</strong>的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/54413da2e23408d98b228ce8b89ace5d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>第五代EPYC处理器9005系列(代号“Turin”)</strong>专为现代数据中心设计。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1c897d6a44ea15989bd42825ebc2e70d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"553\"/></p><p>该处理器在<strong>计算、内存、IO与平台、安全</strong>四大层面全面升级。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/051eaa0ca703c8e64ac08391960eb010\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"436\"/></p><p>第五代EPYC拥有<strong>1500亿颗晶体管</strong>,采用<strong>台积电3/4nm 制程</strong>、全新<strong>“Zen 5”</strong> 及<strong>“Zen 5c”</strong>核心兼容广泛部署的SP5平台,最多支持<strong>192核</strong>、<strong>384个线程</strong>,8~192核的功耗范畴为<strong>155W~500W</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9caab42b5d50aabafa28b4d3323de4f5\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达<strong>5GHz</strong>,机密计算的可信I/O和FIPS认证正在进行中。</p><p>与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升<strong>17%</strong>的IPC(每时钟指令数),为AI和HPC提供了提升<strong>37%</strong>的IPC。</p><p>在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的<strong>2.7倍</strong>,32核EPYC 9355的每核心性能是32核6548Y+的<strong>1.4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a0b679a0ae5895918326d3b23da35e0\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>跑<strong>视频转码、商用App、开源数据库、图像渲染</strong>等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的<strong>3~4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ad9c7887bdfadcf35d3a6701b123800f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"479\"/></p><p>在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的<strong>2.1~3.9倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/289c442b6f059fdba7cc08338d6ed904\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。</p><p>例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比<strong>1000台</strong>搭载英特尔至强铂金8280的服务器,现在<strong>131台</strong>搭载AMD EPYC 9965的现代服务器就能实现,<strong>功耗、3年TCO均显著减少</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4727671bce2928b420788d60067c1e1b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4b0113d7cddd443867c08ec8a3f9a2f9\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"519\"/></p><p>相比64核至强8592+,192核EPYC 9965在运行<strong>机器学习、端到端AI、相似搜索、大语言模型</strong>等工作负载时,推理性能提升多达<strong>1.9~3.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a05ba31aaa6e6f187dee0fbcd55b384\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。</p><p>与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达<strong>5GHz</strong>的提升,可将GPU编排任务的处理速度提高<strong>28%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b803e1f825063d0964e582450a0c8958\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的<strong>1.6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/345f276ccda90354b7cad8b7318f23b7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"457\"/></p><p>EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达<strong>70万</strong>个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升<strong>20%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7daa252fcd7733d0a7da8bde013d8203\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7fb4b026c25fadea4c82c6ca4849df34\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"466\"/></p><p>同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升<strong>20%</strong>、<strong>15%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d448e618dbba91fd2ba9acaa801caf7c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"481\"/></p><p><strong>与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e06e79af270dc83542a798bc18150f25\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"513\"/></p><p>将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达<strong>2倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ee889c9281e87d8f3c104fa2633c700\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p><strong><em>04.</em></strong></p><p><strong>企业级AI PC处理器:</strong></p><p><strong>升级“Zen 5”架构,AI算力最高55TOPS</strong></p><p>AI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b8ae8ee0c18facbe27a7e6c8d58fbaf4\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出<strong>锐龙AI PRO 300系列</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e1ba96850be44d292c4ea583742b0dd1\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"586\"/></p><p>该处理器专为提高企业生产力而设计,采用<strong>4nm工艺</strong>、<strong>“Zen 5”</strong> CPU架构(最多12核、24个线程)、<strong>RDNA 3.5</strong> GPU架构(最多16个计算单元),支持<strong>Copilot+</strong>功能,包括电话会议实时字幕、语言翻译、AI图像生成等。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/05679c7eb0571c5b60373a962adbf3bb\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"584\"/></p><p>其内置NPU可提供<strong>50-55TOPS</strong>的AI处理能力。</p><p><strong>40TOPS</strong>是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bee408b80a9cee1d96cb628f31b41796\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p>与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了<strong>40%</strong>,办公生产力提高了<strong>14%</strong>,支持<strong>更长续航</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/da0e971f65596c21ebd5fab5579b2622\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"532\"/></p><p>锐龙AI PRO 300系列采用<strong>AMD PRO</strong>技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3073a8ac5edf87848c6862d7cf41980e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"767\"/></p><p>由搭载锐龙AI PRO 300系列的OEM系统预计将于<strong>今年晚些时候</strong>上市。</p><p>AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f77bee913c28af1c50f1fed26dfaa105\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"529\"/></p><p>通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。</p><p><strong><em>05.</em></strong></p><p><strong>结语:AMD正在数据中心市场攻势凶猛</strong></p><p>AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。</p><p>AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a979bbc5a2ba10dea89c7bb3acddf306\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"512\"/></p><p>无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。</p></body></html>","source":"zhidxcom","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-10-11 05:57 北京时间 <a href=https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ><strong>智东西</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/2fc45091272b4362ffb0a84b85a713a0","relate_stocks":{"AMD":"美国超微公司"},"source_url":"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1153860099","content_text":"五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场演讲集齐了谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI等重量级AI生态伙伴。备受期待的旗舰AI芯片AMD Instinct MI325X GPU首次启用HBM3E高带宽内存,AI峰值算力达到21PFLOPS,并与去年发布的、同样采用HBM3E的英伟达H200 GPU用数据掰手腕:内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍。AMD还披露了最新的AI芯片路线图,采用CDNA 4架构的MI350系列明年上市,其中MI355X的AI峰值算力达到74PFLOPS,MI400系列将采用更先进的CDNA架构。更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400和性能翻倍提升的Pensando Salina 400 DPU。另一款重磅新品是第五代EPYC服务器CPU,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持192核、384个线程。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达2.7倍,企业级性能提高多达4.0倍,HPC(高性能计算)性能提高多达3.9倍,基于CPU的AI加速提高多达3.8倍,GPU主机节点提升多达1.2倍。自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有2%,今年上半年已攀爬到34%,在全球覆盖超过950个云实例和超过350个OxM平台。AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器锐龙AI PRO 300系列。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。01.旗舰AI芯片三代同堂:内存容量带宽暴涨,峰值算力冲9.2PFAI芯片,正成为AMD业务增长的重头戏。AMD去年12月发布的Instinct MI300X加速器,已经成为AMD历史上增长最快的产品,不到两个季度销售额就超过了10亿美元。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过45亿美元。微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。基于Llama 3.1 405B运行对话式AI、内容生成、AI Agent及聊天机器人、总结摘要等任务时,MI300的推理速度最多达到英伟达H100的1.3倍。新推出的MI325X进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快20%~40%。MI325X拥有1530亿颗晶体管,采用CDNA 3架构、256GB HBM3E内存,内存带宽达6TB/s,FP8峰值性能达到2.6PFLOPS,FP16峰值性能达到1.3PFLOPS。由8张MI325X组成的服务器平台有2TB HBM3E内存;内存带宽达到48TB/s;Infinity Fabric总线带宽为896GB/s;FP8性能最高达20.8PFLOPS,FP16性能最高达10.4PFLOPS。相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高40%。从训练性能来看,单张MI325X训练Llama 2 7B的速度超过单张H200,8张MI325X训练Llama 2 70B的性能比肩H200 HGX。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。下一代MI350系列采用3nm制程工艺、新一代CDNA 4架构、288GB HBM3E内存,新增对FP4/FP6数据类型的支持,推理性能相比基于CDNA 3的加速器有高达35倍的提升,有望在2025年下半年上市。MI355X加速器的FP8和FP16性能相比MI325X提升了80%,FP16峰值性能达到2.3PFLOPS,FP8峰值性能达到4.6PFLOPS,FP6和FP4峰值性能达到9.2PFLOPS。8张MI355X共有2.3TB HBM3E内存,内存带宽达到64TB/s,FP16峰值性能达到18.5PFLOPS,FP8峰值性能达到37PFLOPS,新增FP6和FP4的峰值性能为74PFLOPS。三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达7.4倍、HBM内存提高多达1.5倍、支持的模型参数量提升幅度接近6倍。AMD持续投资软件和开放生态系统,在AMD ROCm开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过100万款模型。ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的2.4倍、1.8倍。此前AMD收购了欧洲最大的私人AI实验室Silo AI,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。02.下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU网络是实现最佳系统性能的基础。AI模型平均有30%的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了40%-75%的时间。AI网络分为前端和后端:前端向AI集群提供数据和信息,可编程DPU不断发展;后端管理加速器与集群间的数据传输,关键在于获得最大利用率。为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的Pensando Salina 400 DPU和应用于后端网络的Pensando Pollara 400网卡。Salina 400是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的两倍;Pollara 400是业界首款支持超以太网联盟(UEC)的AI网卡。Salina 400支持400G吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。Pollara 400采用AMD P4可编程引擎,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的6倍,整体完成速度是RoCEv2的5倍。在后端网络,相比InfiniBand,以太网RoCEv2是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过50%,能够扩展100万张GPU。而InfiniBand至多能扩展48000张GPU。03.服务器CPU:3/4nm制程,最多192核/384线程今年7月公布财报时,苏姿丰提到今年上半年,有超过1/3的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。第五代EPYC处理器9005系列(代号“Turin”)专为现代数据中心设计。该处理器在计算、内存、IO与平台、安全四大层面全面升级。第五代EPYC拥有1500亿颗晶体管,采用台积电3/4nm 制程、全新“Zen 5” 及“Zen 5c”核心兼容广泛部署的SP5平台,最多支持192核、384个线程,8~192核的功耗范畴为155W~500W。它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达5GHz,机密计算的可信I/O和FIPS认证正在进行中。与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升17%的IPC(每时钟指令数),为AI和HPC提供了提升37%的IPC。在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的2.7倍,32核EPYC 9355的每核心性能是32核6548Y+的1.4倍。跑视频转码、商用App、开源数据库、图像渲染等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的3~4倍。在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的2.1~3.9倍。达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比1000台搭载英特尔至强铂金8280的服务器,现在131台搭载AMD EPYC 9965的现代服务器就能实现,功耗、3年TCO均显著减少。通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。相比64核至强8592+,192核EPYC 9965在运行机器学习、端到端AI、相似搜索、大语言模型等工作负载时,推理性能提升多达1.9~3.8倍。AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达5GHz的提升,可将GPU编排任务的处理速度提高28%。面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的1.6倍。EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达70万个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升20%。搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升20%、15%。与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达2倍。04.企业级AI PC处理器:升级“Zen 5”架构,AI算力最高55TOPSAI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出锐龙AI PRO 300系列。该处理器专为提高企业生产力而设计,采用4nm工艺、“Zen 5” CPU架构(最多12核、24个线程)、RDNA 3.5 GPU架构(最多16个计算单元),支持Copilot+功能,包括电话会议实时字幕、语言翻译、AI图像生成等。其内置NPU可提供50-55TOPS的AI处理能力。40TOPS是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了40%,办公生产力提高了14%,支持更长续航。锐龙AI PRO 300系列采用AMD PRO技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。由搭载锐龙AI PRO 300系列的OEM系统预计将于今年晚些时候上市。AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。05.结语:AMD正在数据中心市场攻势凶猛AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。","news_type":1},"isVote":1,"tweetType":1,"viewCount":335,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":358682533314840,"gmtCreate":1728609286585,"gmtModify":1728609288996,"author":{"id":"3547635365309209","authorId":"3547635365309209","name":"Julio堂","avatar":"https://static.tigerbbs.com/61010cf4fad5ebcf13d5d07866c6ae93","crmLevel":6,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3547635365309209","idStr":"3547635365309209"},"themes":[],"htmlText":"AMD经典越发布当天跌越深,但它是一支不会让真正投资人亏钱的股票","listText":"AMD经典越发布当天跌越深,但它是一支不会让真正投资人亏钱的股票","text":"AMD经典越发布当天跌越深,但它是一支不会让真正投资人亏钱的股票","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/358682533314840","repostId":"1153860099","repostType":4,"repost":{"id":"1153860099","kind":"news","pubTimestamp":1728597454,"share":"https://www.laohu8.com/m/news/1153860099?lang=&edition=full","pubTime":"2024-10-11 05:57","market":"us","language":"zh","title":"苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台","url":"https://stock-news.laohu8.com/highlight/detail?id=1153860099","media":"智东西","summary":"AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。","content":"<html><head></head><body><blockquote><p><strong>五大硬核新品,轰向AI计算!</strong></p></blockquote><p>猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7b7a4f0e5a95440e6edb4997ce0201b\" alt=\"\" title=\"\" tg-width=\"640\" tg-height=\"351\"/></p><p>10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。</p><p>AMD倾囊倒出了一系列AI杀手锏,发布<strong>全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器</strong>,将AI计算的战火烧得更旺。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0194eb48384f8ddc05a21f54441f241\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>这家芯片巨头还大秀AI朋友圈,现场演讲集齐了<strong>谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI</strong>等重量级AI生态伙伴。</p><p>备受期待的旗舰AI芯片<strong>AMD Instinct MI325X GPU</strong>首次启用<strong>HBM3E</strong>高带宽内存,AI峰值算力达到<strong>21PFLOPS</strong>,并与去年发布的、同样采用HBM3E的<strong>英伟达H200 GPU用数据掰手腕</strong>:<strong>内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e02b6b8cddfd1b36b568b554e8dfa191\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"561\"/></p><p>AMD还披露了最新的AI芯片路线图,采用<strong>CDNA 4架构</strong>的<strong>MI350系列明年上市</strong>,其中MI355X的AI峰值算力达到<strong>74PFLOPS</strong>,MI400系列将采用<strong>更先进的CDNA架构</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/131f12695357c4e62037807ec992a5c2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了<strong>业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400</strong>和性能翻倍提升的<strong>Pensando Salina 400 DPU</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2d307944f497799ea021032932265bbc\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>另一款重磅新品是<strong>第五代EPYC服务器CPU</strong>,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持<strong>192核</strong>、<strong>384个线程</strong>。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ec2a20233b5bb38842b668881bd66119\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"907\"/></p><p>与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达<strong>2.7倍</strong>,企业级性能提高多达<strong>4.0倍</strong>,HPC(高性能计算)性能提高多达<strong>3.9倍</strong>,基于CPU的AI加速提高多达<strong>3.8倍</strong>,GPU主机节点提升多达<strong>1.2倍</strong>。</p><p>自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有<strong>2%</strong>,今年上半年已攀爬到<strong>34%</strong>,在全球覆盖超过950个云实例和超过350个OxM平台。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9bf26fb08b3d7c339ff78a968ba363e7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"610\"/></p><p>AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。</p><p>AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器<strong>锐龙AI PRO 300系列</strong>。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过<strong>100万台</strong>锐龙AI PRO PC上市。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f339f2ec35816a85512ce105a3a2f9de\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"464\"/></p><p><strong><em>01.</em></strong></p><p><strong>旗舰AI芯片三代同堂:</strong></p><p><strong>内存容量带宽暴涨,峰值算力冲9.2PF</strong></p><p>AI芯片,正成为AMD业务增长的重头戏。</p><p>AMD去年12月发布的Instinct MI300X加速器,已经成为<strong>AMD历史上增长最快的产品</strong>,<strong>不到两个季度</strong>销售额就超过了<strong>10亿美元</strong>。</p><p>今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的<strong>Instinct MI325X</strong>。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过<strong>45亿美元</strong>。</p><p><strong>微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)</strong>等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c4cce27e737ce1a19579cb8c89fb9d7b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"775\"/></p><p>微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。</p><p>基于Llama 3.1 405B运行<strong>对话式AI、内容生成、AI Agent及聊天机器人、总结摘要</strong>等任务时,MI300的推理速度最多达到英伟达H100的<strong>1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/95deab354ee277b2cd3b4a5bf999b333\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>新推出的<strong>MI325X</strong>进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快<strong>20%~40%</strong>。</p><p></p><p>MI325X拥有<strong>1530亿颗晶体管</strong>,采用CDNA 3架构、<strong>256GB HBM3E</strong>内存,内存带宽达<strong>6TB/s</strong>,FP8峰值性能达到<strong>2.6PFLOPS</strong>,FP16峰值性能达到<strong>1.3PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2f2c29bc84436a0848992da2cf0a1aec\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"555\"/></p><p>由8张MI325X组成的服务器平台有<strong>2TB HBM3E</strong>内存;内存带宽达到<strong>48TB/s</strong>;Infinity Fabric总线带宽为<strong>896GB/s</strong>;FP8性能最高达<strong>20.8PFLOPS</strong>,FP16性能最高达<strong>10.4PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0b2dce0d2d0e2cdd0c7f85ffd801af2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高<strong>40%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0e893fe22e4b02e876ba23554198aa00\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>从训练性能来看,单张MI325X训练Llama 2 7B的速度<strong>超过单张H200</strong>,8张MI325X训练Llama 2 70B的性能<strong>比肩H200 HGX</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd1145a1a0fbce00ac65fa50e519b5c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD Instinct MI325X加速器或将于<strong>今年第四季度</strong>投产,将从<strong>明年第一季度</strong>起为平台供应商提供。</p><p>下一代<strong>MI350</strong>系列采用<strong>3nm制程工艺</strong>、新一代<strong>CDNA 4架构</strong>、<strong>288GB HBM3E</strong>内存,新增对<strong>FP4/FP6</strong>数据类型的支持,推理性能相比基于CDNA 3的加速器有高达<strong>35倍</strong>的提升,有望在<strong>2025年下半年</strong>上市。</p><p></p><p><strong>MI355X</strong>加速器的FP8和FP16性能相比MI325X提升了<strong>80%</strong>,FP16峰值性能达到<strong>2.3PFLOPS</strong>,FP8峰值性能达到<strong>4.6PFLOPS</strong>,FP6和FP4峰值性能达到<strong>9.2PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2dd2a8b878ebd31a33d7b01264c44565\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>8张MI355X共有<strong>2.3TB HBM3E</strong>内存,内存带宽达到<strong>64TB/s</strong>,FP16峰值性能达到<strong>18.5PFLOPS</strong>,FP8峰值性能达到<strong>37PFLOPS</strong>,新增FP6和FP4的峰值性能为<strong>74PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e002d554eb4a0475edfb14e9c0f20787\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"496\"/></p><p>三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达<strong>7.4倍</strong>、HBM内存提高多达<strong>1.5倍</strong>、支持的模型参数量提升幅度接近<strong>6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3960554d9c69ea50650a105cc0d6b698\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"531\"/></p><p>AMD持续投资软件和开放生态系统,在<strong>AMD ROCm</strong>开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过<strong>100万款</strong>模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/af7b4ed19ddb9050c377b16a5c93c031\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的<strong>2.4倍</strong>、<strong>1.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/797f5960d6f04b7bbb4d9a9f85c7739f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>此前AMD收购了欧洲最大的私人AI实验室<strong>Silo AI</strong>,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。</p><p><strong><em>02.</em></strong></p><p><strong>下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU</strong></p><p>网络是实现最佳系统性能的基础。AI模型平均有<strong>30%</strong>的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了<strong>40%-75%</strong>的时间。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e2f76e5a1aac82eef4cdf5799cad3ca7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>AI网络</strong>分为前端和后端:<strong>前端</strong>向AI集群提供数据和信息,可编程DPU不断发展;<strong>后端</strong>管理加速器与集群间的数据传输,关键在于获得最大利用率。</p><p>为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的<strong>Pensando Salina 400 DPU</strong>和应用于后端网络的<strong>Pensando Pollara 400网卡</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9441441b2cce432b1950cf545ec40670\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"419\"/></p><p><strong>Salina 400</strong>是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的<strong>两倍</strong>;<strong>Pollara 400</strong>是<strong>业界首款</strong>支持超以太网联盟(UEC)的AI网卡。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c75467cf530a4fdd01dab4c9ec54e68e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>Salina 400支持<strong>400G</strong>吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。</p><p>Pollara 400采用<strong>AMD P4可编程引擎</strong>,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8da1694e8e69813855db46082cc3d775\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的<strong>6倍</strong>,整体完成速度是RoCEv2的<strong>5倍</strong>。</p><p>在后端网络,相比InfiniBand,<strong>以太网RoCEv2</strong>是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过<strong>50%</strong>,能够扩展<strong>100万张</strong>GPU。而InfiniBand至多能扩展<strong>48000张</strong>GPU。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a138e9f4bcdcb966b7fad8a863fb9a3\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong><em>03.</em></strong></p><p><strong>服务器CPU:</strong></p><p><strong>3/4nm制程,最多192核/384线程</strong></p><p>今年7月公布财报时,苏姿丰提到今年上半年,有超过<strong>1/3</strong>的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/54413da2e23408d98b228ce8b89ace5d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>第五代EPYC处理器9005系列(代号“Turin”)</strong>专为现代数据中心设计。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1c897d6a44ea15989bd42825ebc2e70d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"553\"/></p><p>该处理器在<strong>计算、内存、IO与平台、安全</strong>四大层面全面升级。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/051eaa0ca703c8e64ac08391960eb010\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"436\"/></p><p>第五代EPYC拥有<strong>1500亿颗晶体管</strong>,采用<strong>台积电3/4nm 制程</strong>、全新<strong>“Zen 5”</strong> 及<strong>“Zen 5c”</strong>核心兼容广泛部署的SP5平台,最多支持<strong>192核</strong>、<strong>384个线程</strong>,8~192核的功耗范畴为<strong>155W~500W</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9caab42b5d50aabafa28b4d3323de4f5\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达<strong>5GHz</strong>,机密计算的可信I/O和FIPS认证正在进行中。</p><p>与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升<strong>17%</strong>的IPC(每时钟指令数),为AI和HPC提供了提升<strong>37%</strong>的IPC。</p><p>在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的<strong>2.7倍</strong>,32核EPYC 9355的每核心性能是32核6548Y+的<strong>1.4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a0b679a0ae5895918326d3b23da35e0\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>跑<strong>视频转码、商用App、开源数据库、图像渲染</strong>等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的<strong>3~4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ad9c7887bdfadcf35d3a6701b123800f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"479\"/></p><p>在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的<strong>2.1~3.9倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/289c442b6f059fdba7cc08338d6ed904\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。</p><p>例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比<strong>1000台</strong>搭载英特尔至强铂金8280的服务器,现在<strong>131台</strong>搭载AMD EPYC 9965的现代服务器就能实现,<strong>功耗、3年TCO均显著减少</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4727671bce2928b420788d60067c1e1b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4b0113d7cddd443867c08ec8a3f9a2f9\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"519\"/></p><p>相比64核至强8592+,192核EPYC 9965在运行<strong>机器学习、端到端AI、相似搜索、大语言模型</strong>等工作负载时,推理性能提升多达<strong>1.9~3.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a05ba31aaa6e6f187dee0fbcd55b384\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。</p><p>与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达<strong>5GHz</strong>的提升,可将GPU编排任务的处理速度提高<strong>28%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b803e1f825063d0964e582450a0c8958\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的<strong>1.6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/345f276ccda90354b7cad8b7318f23b7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"457\"/></p><p>EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达<strong>70万</strong>个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升<strong>20%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7daa252fcd7733d0a7da8bde013d8203\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7fb4b026c25fadea4c82c6ca4849df34\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"466\"/></p><p>同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升<strong>20%</strong>、<strong>15%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d448e618dbba91fd2ba9acaa801caf7c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"481\"/></p><p><strong>与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e06e79af270dc83542a798bc18150f25\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"513\"/></p><p>将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达<strong>2倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ee889c9281e87d8f3c104fa2633c700\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p><strong><em>04.</em></strong></p><p><strong>企业级AI PC处理器:</strong></p><p><strong>升级“Zen 5”架构,AI算力最高55TOPS</strong></p><p>AI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b8ae8ee0c18facbe27a7e6c8d58fbaf4\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出<strong>锐龙AI PRO 300系列</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e1ba96850be44d292c4ea583742b0dd1\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"586\"/></p><p>该处理器专为提高企业生产力而设计,采用<strong>4nm工艺</strong>、<strong>“Zen 5”</strong> CPU架构(最多12核、24个线程)、<strong>RDNA 3.5</strong> GPU架构(最多16个计算单元),支持<strong>Copilot+</strong>功能,包括电话会议实时字幕、语言翻译、AI图像生成等。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/05679c7eb0571c5b60373a962adbf3bb\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"584\"/></p><p>其内置NPU可提供<strong>50-55TOPS</strong>的AI处理能力。</p><p><strong>40TOPS</strong>是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bee408b80a9cee1d96cb628f31b41796\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p>与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了<strong>40%</strong>,办公生产力提高了<strong>14%</strong>,支持<strong>更长续航</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/da0e971f65596c21ebd5fab5579b2622\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"532\"/></p><p>锐龙AI PRO 300系列采用<strong>AMD PRO</strong>技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3073a8ac5edf87848c6862d7cf41980e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"767\"/></p><p>由搭载锐龙AI PRO 300系列的OEM系统预计将于<strong>今年晚些时候</strong>上市。</p><p>AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f77bee913c28af1c50f1fed26dfaa105\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"529\"/></p><p>通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。</p><p><strong><em>05.</em></strong></p><p><strong>结语:AMD正在数据中心市场攻势凶猛</strong></p><p>AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。</p><p>AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a979bbc5a2ba10dea89c7bb3acddf306\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"512\"/></p><p>无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。</p></body></html>","source":"zhidxcom","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-10-11 05:57 北京时间 <a href=https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ><strong>智东西</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/2fc45091272b4362ffb0a84b85a713a0","relate_stocks":{"AMD":"美国超微公司"},"source_url":"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1153860099","content_text":"五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场演讲集齐了谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI等重量级AI生态伙伴。备受期待的旗舰AI芯片AMD Instinct MI325X GPU首次启用HBM3E高带宽内存,AI峰值算力达到21PFLOPS,并与去年发布的、同样采用HBM3E的英伟达H200 GPU用数据掰手腕:内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍。AMD还披露了最新的AI芯片路线图,采用CDNA 4架构的MI350系列明年上市,其中MI355X的AI峰值算力达到74PFLOPS,MI400系列将采用更先进的CDNA架构。更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400和性能翻倍提升的Pensando Salina 400 DPU。另一款重磅新品是第五代EPYC服务器CPU,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持192核、384个线程。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达2.7倍,企业级性能提高多达4.0倍,HPC(高性能计算)性能提高多达3.9倍,基于CPU的AI加速提高多达3.8倍,GPU主机节点提升多达1.2倍。自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有2%,今年上半年已攀爬到34%,在全球覆盖超过950个云实例和超过350个OxM平台。AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器锐龙AI PRO 300系列。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。01.旗舰AI芯片三代同堂:内存容量带宽暴涨,峰值算力冲9.2PFAI芯片,正成为AMD业务增长的重头戏。AMD去年12月发布的Instinct MI300X加速器,已经成为AMD历史上增长最快的产品,不到两个季度销售额就超过了10亿美元。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过45亿美元。微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。基于Llama 3.1 405B运行对话式AI、内容生成、AI Agent及聊天机器人、总结摘要等任务时,MI300的推理速度最多达到英伟达H100的1.3倍。新推出的MI325X进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快20%~40%。MI325X拥有1530亿颗晶体管,采用CDNA 3架构、256GB HBM3E内存,内存带宽达6TB/s,FP8峰值性能达到2.6PFLOPS,FP16峰值性能达到1.3PFLOPS。由8张MI325X组成的服务器平台有2TB HBM3E内存;内存带宽达到48TB/s;Infinity Fabric总线带宽为896GB/s;FP8性能最高达20.8PFLOPS,FP16性能最高达10.4PFLOPS。相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高40%。从训练性能来看,单张MI325X训练Llama 2 7B的速度超过单张H200,8张MI325X训练Llama 2 70B的性能比肩H200 HGX。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。下一代MI350系列采用3nm制程工艺、新一代CDNA 4架构、288GB HBM3E内存,新增对FP4/FP6数据类型的支持,推理性能相比基于CDNA 3的加速器有高达35倍的提升,有望在2025年下半年上市。MI355X加速器的FP8和FP16性能相比MI325X提升了80%,FP16峰值性能达到2.3PFLOPS,FP8峰值性能达到4.6PFLOPS,FP6和FP4峰值性能达到9.2PFLOPS。8张MI355X共有2.3TB HBM3E内存,内存带宽达到64TB/s,FP16峰值性能达到18.5PFLOPS,FP8峰值性能达到37PFLOPS,新增FP6和FP4的峰值性能为74PFLOPS。三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达7.4倍、HBM内存提高多达1.5倍、支持的模型参数量提升幅度接近6倍。AMD持续投资软件和开放生态系统,在AMD ROCm开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过100万款模型。ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的2.4倍、1.8倍。此前AMD收购了欧洲最大的私人AI实验室Silo AI,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。02.下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU网络是实现最佳系统性能的基础。AI模型平均有30%的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了40%-75%的时间。AI网络分为前端和后端:前端向AI集群提供数据和信息,可编程DPU不断发展;后端管理加速器与集群间的数据传输,关键在于获得最大利用率。为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的Pensando Salina 400 DPU和应用于后端网络的Pensando Pollara 400网卡。Salina 400是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的两倍;Pollara 400是业界首款支持超以太网联盟(UEC)的AI网卡。Salina 400支持400G吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。Pollara 400采用AMD P4可编程引擎,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的6倍,整体完成速度是RoCEv2的5倍。在后端网络,相比InfiniBand,以太网RoCEv2是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过50%,能够扩展100万张GPU。而InfiniBand至多能扩展48000张GPU。03.服务器CPU:3/4nm制程,最多192核/384线程今年7月公布财报时,苏姿丰提到今年上半年,有超过1/3的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。第五代EPYC处理器9005系列(代号“Turin”)专为现代数据中心设计。该处理器在计算、内存、IO与平台、安全四大层面全面升级。第五代EPYC拥有1500亿颗晶体管,采用台积电3/4nm 制程、全新“Zen 5” 及“Zen 5c”核心兼容广泛部署的SP5平台,最多支持192核、384个线程,8~192核的功耗范畴为155W~500W。它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达5GHz,机密计算的可信I/O和FIPS认证正在进行中。与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升17%的IPC(每时钟指令数),为AI和HPC提供了提升37%的IPC。在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的2.7倍,32核EPYC 9355的每核心性能是32核6548Y+的1.4倍。跑视频转码、商用App、开源数据库、图像渲染等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的3~4倍。在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的2.1~3.9倍。达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比1000台搭载英特尔至强铂金8280的服务器,现在131台搭载AMD EPYC 9965的现代服务器就能实现,功耗、3年TCO均显著减少。通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。相比64核至强8592+,192核EPYC 9965在运行机器学习、端到端AI、相似搜索、大语言模型等工作负载时,推理性能提升多达1.9~3.8倍。AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达5GHz的提升,可将GPU编排任务的处理速度提高28%。面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的1.6倍。EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达70万个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升20%。搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升20%、15%。与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达2倍。04.企业级AI PC处理器:升级“Zen 5”架构,AI算力最高55TOPSAI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出锐龙AI PRO 300系列。该处理器专为提高企业生产力而设计,采用4nm工艺、“Zen 5” CPU架构(最多12核、24个线程)、RDNA 3.5 GPU架构(最多16个计算单元),支持Copilot+功能,包括电话会议实时字幕、语言翻译、AI图像生成等。其内置NPU可提供50-55TOPS的AI处理能力。40TOPS是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了40%,办公生产力提高了14%,支持更长续航。锐龙AI PRO 300系列采用AMD PRO技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。由搭载锐龙AI PRO 300系列的OEM系统预计将于今年晚些时候上市。AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。05.结语:AMD正在数据中心市场攻势凶猛AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。","news_type":1},"isVote":1,"tweetType":1,"viewCount":851,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3581307636040691","authorId":"3581307636040691","name":"M1_5","avatar":"https://static.tigerbbs.com/2d7ed0595bdc25243aaa2ea5f7ef963d","crmLevel":2,"crmLevelSwitch":0,"authorIdStr":"3581307636040691","idStr":"3581307636040691"},"content":"我加杠杆就不算投资了吗[流泪]","text":"我加杠杆就不算投资了吗[流泪]","html":"我加杠杆就不算投资了吗[流泪]"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":358645914456328,"gmtCreate":1728600328404,"gmtModify":1728600330567,"author":{"id":"4173489632474452","authorId":"4173489632474452","name":"今夜打老虎2024","avatar":"https://static.tigerbbs.com/e9810690d010a4b151829142bbb6399f","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"4173489632474452","idStr":"4173489632474452"},"themes":[],"htmlText":"为什么AM D今天跌了[捂脸] ","listText":"为什么AM D今天跌了[捂脸] ","text":"为什么AM D今天跌了[捂脸]","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/358645914456328","repostId":"1153860099","repostType":2,"repost":{"id":"1153860099","kind":"news","pubTimestamp":1728597454,"share":"https://www.laohu8.com/m/news/1153860099?lang=&edition=full","pubTime":"2024-10-11 05:57","market":"us","language":"zh","title":"苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台","url":"https://stock-news.laohu8.com/highlight/detail?id=1153860099","media":"智东西","summary":"AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。","content":"<html><head></head><body><blockquote><p><strong>五大硬核新品,轰向AI计算!</strong></p></blockquote><p>猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7b7a4f0e5a95440e6edb4997ce0201b\" alt=\"\" title=\"\" tg-width=\"640\" tg-height=\"351\"/></p><p>10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。</p><p>AMD倾囊倒出了一系列AI杀手锏,发布<strong>全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器</strong>,将AI计算的战火烧得更旺。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0194eb48384f8ddc05a21f54441f241\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>这家芯片巨头还大秀AI朋友圈,现场演讲集齐了<strong>谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI</strong>等重量级AI生态伙伴。</p><p>备受期待的旗舰AI芯片<strong>AMD Instinct MI325X GPU</strong>首次启用<strong>HBM3E</strong>高带宽内存,AI峰值算力达到<strong>21PFLOPS</strong>,并与去年发布的、同样采用HBM3E的<strong>英伟达H200 GPU用数据掰手腕</strong>:<strong>内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e02b6b8cddfd1b36b568b554e8dfa191\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"561\"/></p><p>AMD还披露了最新的AI芯片路线图,采用<strong>CDNA 4架构</strong>的<strong>MI350系列明年上市</strong>,其中MI355X的AI峰值算力达到<strong>74PFLOPS</strong>,MI400系列将采用<strong>更先进的CDNA架构</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/131f12695357c4e62037807ec992a5c2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了<strong>业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400</strong>和性能翻倍提升的<strong>Pensando Salina 400 DPU</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2d307944f497799ea021032932265bbc\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>另一款重磅新品是<strong>第五代EPYC服务器CPU</strong>,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持<strong>192核</strong>、<strong>384个线程</strong>。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ec2a20233b5bb38842b668881bd66119\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"907\"/></p><p>与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达<strong>2.7倍</strong>,企业级性能提高多达<strong>4.0倍</strong>,HPC(高性能计算)性能提高多达<strong>3.9倍</strong>,基于CPU的AI加速提高多达<strong>3.8倍</strong>,GPU主机节点提升多达<strong>1.2倍</strong>。</p><p>自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有<strong>2%</strong>,今年上半年已攀爬到<strong>34%</strong>,在全球覆盖超过950个云实例和超过350个OxM平台。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9bf26fb08b3d7c339ff78a968ba363e7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"610\"/></p><p>AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。</p><p>AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器<strong>锐龙AI PRO 300系列</strong>。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过<strong>100万台</strong>锐龙AI PRO PC上市。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f339f2ec35816a85512ce105a3a2f9de\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"464\"/></p><p><strong><em>01.</em></strong></p><p><strong>旗舰AI芯片三代同堂:</strong></p><p><strong>内存容量带宽暴涨,峰值算力冲9.2PF</strong></p><p>AI芯片,正成为AMD业务增长的重头戏。</p><p>AMD去年12月发布的Instinct MI300X加速器,已经成为<strong>AMD历史上增长最快的产品</strong>,<strong>不到两个季度</strong>销售额就超过了<strong>10亿美元</strong>。</p><p>今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的<strong>Instinct MI325X</strong>。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过<strong>45亿美元</strong>。</p><p><strong>微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)</strong>等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c4cce27e737ce1a19579cb8c89fb9d7b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"775\"/></p><p>微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。</p><p>基于Llama 3.1 405B运行<strong>对话式AI、内容生成、AI Agent及聊天机器人、总结摘要</strong>等任务时,MI300的推理速度最多达到英伟达H100的<strong>1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/95deab354ee277b2cd3b4a5bf999b333\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>新推出的<strong>MI325X</strong>进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快<strong>20%~40%</strong>。</p><p></p><p>MI325X拥有<strong>1530亿颗晶体管</strong>,采用CDNA 3架构、<strong>256GB HBM3E</strong>内存,内存带宽达<strong>6TB/s</strong>,FP8峰值性能达到<strong>2.6PFLOPS</strong>,FP16峰值性能达到<strong>1.3PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2f2c29bc84436a0848992da2cf0a1aec\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"555\"/></p><p>由8张MI325X组成的服务器平台有<strong>2TB HBM3E</strong>内存;内存带宽达到<strong>48TB/s</strong>;Infinity Fabric总线带宽为<strong>896GB/s</strong>;FP8性能最高达<strong>20.8PFLOPS</strong>,FP16性能最高达<strong>10.4PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0b2dce0d2d0e2cdd0c7f85ffd801af2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高<strong>40%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0e893fe22e4b02e876ba23554198aa00\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>从训练性能来看,单张MI325X训练Llama 2 7B的速度<strong>超过单张H200</strong>,8张MI325X训练Llama 2 70B的性能<strong>比肩H200 HGX</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd1145a1a0fbce00ac65fa50e519b5c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD Instinct MI325X加速器或将于<strong>今年第四季度</strong>投产,将从<strong>明年第一季度</strong>起为平台供应商提供。</p><p>下一代<strong>MI350</strong>系列采用<strong>3nm制程工艺</strong>、新一代<strong>CDNA 4架构</strong>、<strong>288GB HBM3E</strong>内存,新增对<strong>FP4/FP6</strong>数据类型的支持,推理性能相比基于CDNA 3的加速器有高达<strong>35倍</strong>的提升,有望在<strong>2025年下半年</strong>上市。</p><p></p><p><strong>MI355X</strong>加速器的FP8和FP16性能相比MI325X提升了<strong>80%</strong>,FP16峰值性能达到<strong>2.3PFLOPS</strong>,FP8峰值性能达到<strong>4.6PFLOPS</strong>,FP6和FP4峰值性能达到<strong>9.2PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2dd2a8b878ebd31a33d7b01264c44565\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>8张MI355X共有<strong>2.3TB HBM3E</strong>内存,内存带宽达到<strong>64TB/s</strong>,FP16峰值性能达到<strong>18.5PFLOPS</strong>,FP8峰值性能达到<strong>37PFLOPS</strong>,新增FP6和FP4的峰值性能为<strong>74PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e002d554eb4a0475edfb14e9c0f20787\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"496\"/></p><p>三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达<strong>7.4倍</strong>、HBM内存提高多达<strong>1.5倍</strong>、支持的模型参数量提升幅度接近<strong>6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3960554d9c69ea50650a105cc0d6b698\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"531\"/></p><p>AMD持续投资软件和开放生态系统,在<strong>AMD ROCm</strong>开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过<strong>100万款</strong>模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/af7b4ed19ddb9050c377b16a5c93c031\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的<strong>2.4倍</strong>、<strong>1.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/797f5960d6f04b7bbb4d9a9f85c7739f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>此前AMD收购了欧洲最大的私人AI实验室<strong>Silo AI</strong>,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。</p><p><strong><em>02.</em></strong></p><p><strong>下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU</strong></p><p>网络是实现最佳系统性能的基础。AI模型平均有<strong>30%</strong>的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了<strong>40%-75%</strong>的时间。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e2f76e5a1aac82eef4cdf5799cad3ca7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>AI网络</strong>分为前端和后端:<strong>前端</strong>向AI集群提供数据和信息,可编程DPU不断发展;<strong>后端</strong>管理加速器与集群间的数据传输,关键在于获得最大利用率。</p><p>为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的<strong>Pensando Salina 400 DPU</strong>和应用于后端网络的<strong>Pensando Pollara 400网卡</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9441441b2cce432b1950cf545ec40670\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"419\"/></p><p><strong>Salina 400</strong>是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的<strong>两倍</strong>;<strong>Pollara 400</strong>是<strong>业界首款</strong>支持超以太网联盟(UEC)的AI网卡。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c75467cf530a4fdd01dab4c9ec54e68e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>Salina 400支持<strong>400G</strong>吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。</p><p>Pollara 400采用<strong>AMD P4可编程引擎</strong>,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8da1694e8e69813855db46082cc3d775\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的<strong>6倍</strong>,整体完成速度是RoCEv2的<strong>5倍</strong>。</p><p>在后端网络,相比InfiniBand,<strong>以太网RoCEv2</strong>是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过<strong>50%</strong>,能够扩展<strong>100万张</strong>GPU。而InfiniBand至多能扩展<strong>48000张</strong>GPU。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a138e9f4bcdcb966b7fad8a863fb9a3\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong><em>03.</em></strong></p><p><strong>服务器CPU:</strong></p><p><strong>3/4nm制程,最多192核/384线程</strong></p><p>今年7月公布财报时,苏姿丰提到今年上半年,有超过<strong>1/3</strong>的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/54413da2e23408d98b228ce8b89ace5d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>第五代EPYC处理器9005系列(代号“Turin”)</strong>专为现代数据中心设计。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1c897d6a44ea15989bd42825ebc2e70d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"553\"/></p><p>该处理器在<strong>计算、内存、IO与平台、安全</strong>四大层面全面升级。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/051eaa0ca703c8e64ac08391960eb010\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"436\"/></p><p>第五代EPYC拥有<strong>1500亿颗晶体管</strong>,采用<strong>台积电3/4nm 制程</strong>、全新<strong>“Zen 5”</strong> 及<strong>“Zen 5c”</strong>核心兼容广泛部署的SP5平台,最多支持<strong>192核</strong>、<strong>384个线程</strong>,8~192核的功耗范畴为<strong>155W~500W</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9caab42b5d50aabafa28b4d3323de4f5\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达<strong>5GHz</strong>,机密计算的可信I/O和FIPS认证正在进行中。</p><p>与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升<strong>17%</strong>的IPC(每时钟指令数),为AI和HPC提供了提升<strong>37%</strong>的IPC。</p><p>在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的<strong>2.7倍</strong>,32核EPYC 9355的每核心性能是32核6548Y+的<strong>1.4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a0b679a0ae5895918326d3b23da35e0\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>跑<strong>视频转码、商用App、开源数据库、图像渲染</strong>等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的<strong>3~4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ad9c7887bdfadcf35d3a6701b123800f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"479\"/></p><p>在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的<strong>2.1~3.9倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/289c442b6f059fdba7cc08338d6ed904\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。</p><p>例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比<strong>1000台</strong>搭载英特尔至强铂金8280的服务器,现在<strong>131台</strong>搭载AMD EPYC 9965的现代服务器就能实现,<strong>功耗、3年TCO均显著减少</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4727671bce2928b420788d60067c1e1b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4b0113d7cddd443867c08ec8a3f9a2f9\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"519\"/></p><p>相比64核至强8592+,192核EPYC 9965在运行<strong>机器学习、端到端AI、相似搜索、大语言模型</strong>等工作负载时,推理性能提升多达<strong>1.9~3.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a05ba31aaa6e6f187dee0fbcd55b384\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。</p><p>与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达<strong>5GHz</strong>的提升,可将GPU编排任务的处理速度提高<strong>28%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b803e1f825063d0964e582450a0c8958\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的<strong>1.6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/345f276ccda90354b7cad8b7318f23b7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"457\"/></p><p>EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达<strong>70万</strong>个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升<strong>20%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7daa252fcd7733d0a7da8bde013d8203\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7fb4b026c25fadea4c82c6ca4849df34\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"466\"/></p><p>同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升<strong>20%</strong>、<strong>15%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d448e618dbba91fd2ba9acaa801caf7c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"481\"/></p><p><strong>与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e06e79af270dc83542a798bc18150f25\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"513\"/></p><p>将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达<strong>2倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ee889c9281e87d8f3c104fa2633c700\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p><strong><em>04.</em></strong></p><p><strong>企业级AI PC处理器:</strong></p><p><strong>升级“Zen 5”架构,AI算力最高55TOPS</strong></p><p>AI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b8ae8ee0c18facbe27a7e6c8d58fbaf4\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出<strong>锐龙AI PRO 300系列</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e1ba96850be44d292c4ea583742b0dd1\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"586\"/></p><p>该处理器专为提高企业生产力而设计,采用<strong>4nm工艺</strong>、<strong>“Zen 5”</strong> CPU架构(最多12核、24个线程)、<strong>RDNA 3.5</strong> GPU架构(最多16个计算单元),支持<strong>Copilot+</strong>功能,包括电话会议实时字幕、语言翻译、AI图像生成等。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/05679c7eb0571c5b60373a962adbf3bb\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"584\"/></p><p>其内置NPU可提供<strong>50-55TOPS</strong>的AI处理能力。</p><p><strong>40TOPS</strong>是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bee408b80a9cee1d96cb628f31b41796\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p>与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了<strong>40%</strong>,办公生产力提高了<strong>14%</strong>,支持<strong>更长续航</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/da0e971f65596c21ebd5fab5579b2622\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"532\"/></p><p>锐龙AI PRO 300系列采用<strong>AMD PRO</strong>技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3073a8ac5edf87848c6862d7cf41980e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"767\"/></p><p>由搭载锐龙AI PRO 300系列的OEM系统预计将于<strong>今年晚些时候</strong>上市。</p><p>AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f77bee913c28af1c50f1fed26dfaa105\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"529\"/></p><p>通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。</p><p><strong><em>05.</em></strong></p><p><strong>结语:AMD正在数据中心市场攻势凶猛</strong></p><p>AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。</p><p>AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a979bbc5a2ba10dea89c7bb3acddf306\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"512\"/></p><p>无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。</p></body></html>","source":"zhidxcom","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-10-11 05:57 北京时间 <a href=https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ><strong>智东西</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/2fc45091272b4362ffb0a84b85a713a0","relate_stocks":{"AMD":"美国超微公司"},"source_url":"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1153860099","content_text":"五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场演讲集齐了谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI等重量级AI生态伙伴。备受期待的旗舰AI芯片AMD Instinct MI325X GPU首次启用HBM3E高带宽内存,AI峰值算力达到21PFLOPS,并与去年发布的、同样采用HBM3E的英伟达H200 GPU用数据掰手腕:内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍。AMD还披露了最新的AI芯片路线图,采用CDNA 4架构的MI350系列明年上市,其中MI355X的AI峰值算力达到74PFLOPS,MI400系列将采用更先进的CDNA架构。更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400和性能翻倍提升的Pensando Salina 400 DPU。另一款重磅新品是第五代EPYC服务器CPU,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持192核、384个线程。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达2.7倍,企业级性能提高多达4.0倍,HPC(高性能计算)性能提高多达3.9倍,基于CPU的AI加速提高多达3.8倍,GPU主机节点提升多达1.2倍。自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有2%,今年上半年已攀爬到34%,在全球覆盖超过950个云实例和超过350个OxM平台。AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器锐龙AI PRO 300系列。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。01.旗舰AI芯片三代同堂:内存容量带宽暴涨,峰值算力冲9.2PFAI芯片,正成为AMD业务增长的重头戏。AMD去年12月发布的Instinct MI300X加速器,已经成为AMD历史上增长最快的产品,不到两个季度销售额就超过了10亿美元。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过45亿美元。微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。基于Llama 3.1 405B运行对话式AI、内容生成、AI Agent及聊天机器人、总结摘要等任务时,MI300的推理速度最多达到英伟达H100的1.3倍。新推出的MI325X进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快20%~40%。MI325X拥有1530亿颗晶体管,采用CDNA 3架构、256GB HBM3E内存,内存带宽达6TB/s,FP8峰值性能达到2.6PFLOPS,FP16峰值性能达到1.3PFLOPS。由8张MI325X组成的服务器平台有2TB HBM3E内存;内存带宽达到48TB/s;Infinity Fabric总线带宽为896GB/s;FP8性能最高达20.8PFLOPS,FP16性能最高达10.4PFLOPS。相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高40%。从训练性能来看,单张MI325X训练Llama 2 7B的速度超过单张H200,8张MI325X训练Llama 2 70B的性能比肩H200 HGX。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。下一代MI350系列采用3nm制程工艺、新一代CDNA 4架构、288GB HBM3E内存,新增对FP4/FP6数据类型的支持,推理性能相比基于CDNA 3的加速器有高达35倍的提升,有望在2025年下半年上市。MI355X加速器的FP8和FP16性能相比MI325X提升了80%,FP16峰值性能达到2.3PFLOPS,FP8峰值性能达到4.6PFLOPS,FP6和FP4峰值性能达到9.2PFLOPS。8张MI355X共有2.3TB HBM3E内存,内存带宽达到64TB/s,FP16峰值性能达到18.5PFLOPS,FP8峰值性能达到37PFLOPS,新增FP6和FP4的峰值性能为74PFLOPS。三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达7.4倍、HBM内存提高多达1.5倍、支持的模型参数量提升幅度接近6倍。AMD持续投资软件和开放生态系统,在AMD ROCm开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过100万款模型。ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的2.4倍、1.8倍。此前AMD收购了欧洲最大的私人AI实验室Silo AI,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。02.下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU网络是实现最佳系统性能的基础。AI模型平均有30%的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了40%-75%的时间。AI网络分为前端和后端:前端向AI集群提供数据和信息,可编程DPU不断发展;后端管理加速器与集群间的数据传输,关键在于获得最大利用率。为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的Pensando Salina 400 DPU和应用于后端网络的Pensando Pollara 400网卡。Salina 400是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的两倍;Pollara 400是业界首款支持超以太网联盟(UEC)的AI网卡。Salina 400支持400G吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。Pollara 400采用AMD P4可编程引擎,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的6倍,整体完成速度是RoCEv2的5倍。在后端网络,相比InfiniBand,以太网RoCEv2是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过50%,能够扩展100万张GPU。而InfiniBand至多能扩展48000张GPU。03.服务器CPU:3/4nm制程,最多192核/384线程今年7月公布财报时,苏姿丰提到今年上半年,有超过1/3的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。第五代EPYC处理器9005系列(代号“Turin”)专为现代数据中心设计。该处理器在计算、内存、IO与平台、安全四大层面全面升级。第五代EPYC拥有1500亿颗晶体管,采用台积电3/4nm 制程、全新“Zen 5” 及“Zen 5c”核心兼容广泛部署的SP5平台,最多支持192核、384个线程,8~192核的功耗范畴为155W~500W。它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达5GHz,机密计算的可信I/O和FIPS认证正在进行中。与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升17%的IPC(每时钟指令数),为AI和HPC提供了提升37%的IPC。在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的2.7倍,32核EPYC 9355的每核心性能是32核6548Y+的1.4倍。跑视频转码、商用App、开源数据库、图像渲染等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的3~4倍。在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的2.1~3.9倍。达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比1000台搭载英特尔至强铂金8280的服务器,现在131台搭载AMD EPYC 9965的现代服务器就能实现,功耗、3年TCO均显著减少。通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。相比64核至强8592+,192核EPYC 9965在运行机器学习、端到端AI、相似搜索、大语言模型等工作负载时,推理性能提升多达1.9~3.8倍。AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达5GHz的提升,可将GPU编排任务的处理速度提高28%。面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的1.6倍。EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达70万个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升20%。搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升20%、15%。与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达2倍。04.企业级AI PC处理器:升级“Zen 5”架构,AI算力最高55TOPSAI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出锐龙AI PRO 300系列。该处理器专为提高企业生产力而设计,采用4nm工艺、“Zen 5” CPU架构(最多12核、24个线程)、RDNA 3.5 GPU架构(最多16个计算单元),支持Copilot+功能,包括电话会议实时字幕、语言翻译、AI图像生成等。其内置NPU可提供50-55TOPS的AI处理能力。40TOPS是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了40%,办公生产力提高了14%,支持更长续航。锐龙AI PRO 300系列采用AMD PRO技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。由搭载锐龙AI PRO 300系列的OEM系统预计将于今年晚些时候上市。AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。05.结语:AMD正在数据中心市场攻势凶猛AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。","news_type":1},"isVote":1,"tweetType":1,"viewCount":455,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":358638972064000,"gmtCreate":1728598515484,"gmtModify":1728606376706,"author":{"id":"11905614020692","authorId":"11905614020692","name":"星际竹隐士","avatar":"https://static.tigerbbs.com/20559ccaec0ddd08f2eb333aeff1feaf","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"11905614020692","idStr":"11905614020692"},"themes":[],"htmlText":"牛逼","listText":"牛逼","text":"牛逼","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/358638972064000","repostId":"1153860099","repostType":2,"repost":{"id":"1153860099","kind":"news","pubTimestamp":1728597454,"share":"https://www.laohu8.com/m/news/1153860099?lang=&edition=full","pubTime":"2024-10-11 05:57","market":"us","language":"zh","title":"苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台","url":"https://stock-news.laohu8.com/highlight/detail?id=1153860099","media":"智东西","summary":"AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。","content":"<html><head></head><body><blockquote><p><strong>五大硬核新品,轰向AI计算!</strong></p></blockquote><p>猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b7b7a4f0e5a95440e6edb4997ce0201b\" alt=\"\" title=\"\" tg-width=\"640\" tg-height=\"351\"/></p><p>10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。</p><p>AMD倾囊倒出了一系列AI杀手锏,发布<strong>全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器</strong>,将AI计算的战火烧得更旺。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0194eb48384f8ddc05a21f54441f241\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>这家芯片巨头还大秀AI朋友圈,现场演讲集齐了<strong>谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI</strong>等重量级AI生态伙伴。</p><p>备受期待的旗舰AI芯片<strong>AMD Instinct MI325X GPU</strong>首次启用<strong>HBM3E</strong>高带宽内存,AI峰值算力达到<strong>21PFLOPS</strong>,并与去年发布的、同样采用HBM3E的<strong>英伟达H200 GPU用数据掰手腕</strong>:<strong>内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e02b6b8cddfd1b36b568b554e8dfa191\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"561\"/></p><p>AMD还披露了最新的AI芯片路线图,采用<strong>CDNA 4架构</strong>的<strong>MI350系列明年上市</strong>,其中MI355X的AI峰值算力达到<strong>74PFLOPS</strong>,MI400系列将采用<strong>更先进的CDNA架构</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/131f12695357c4e62037807ec992a5c2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了<strong>业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400</strong>和性能翻倍提升的<strong>Pensando Salina 400 DPU</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2d307944f497799ea021032932265bbc\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>另一款重磅新品是<strong>第五代EPYC服务器CPU</strong>,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持<strong>192核</strong>、<strong>384个线程</strong>。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ec2a20233b5bb38842b668881bd66119\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"907\"/></p><p>与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达<strong>2.7倍</strong>,企业级性能提高多达<strong>4.0倍</strong>,HPC(高性能计算)性能提高多达<strong>3.9倍</strong>,基于CPU的AI加速提高多达<strong>3.8倍</strong>,GPU主机节点提升多达<strong>1.2倍</strong>。</p><p>自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有<strong>2%</strong>,今年上半年已攀爬到<strong>34%</strong>,在全球覆盖超过950个云实例和超过350个OxM平台。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9bf26fb08b3d7c339ff78a968ba363e7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"610\"/></p><p>AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。</p><p>AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器<strong>锐龙AI PRO 300系列</strong>。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过<strong>100万台</strong>锐龙AI PRO PC上市。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f339f2ec35816a85512ce105a3a2f9de\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"464\"/></p><p><strong><em>01.</em></strong></p><p><strong>旗舰AI芯片三代同堂:</strong></p><p><strong>内存容量带宽暴涨,峰值算力冲9.2PF</strong></p><p>AI芯片,正成为AMD业务增长的重头戏。</p><p>AMD去年12月发布的Instinct MI300X加速器,已经成为<strong>AMD历史上增长最快的产品</strong>,<strong>不到两个季度</strong>销售额就超过了<strong>10亿美元</strong>。</p><p>今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的<strong>Instinct MI325X</strong>。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过<strong>45亿美元</strong>。</p><p><strong>微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)</strong>等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c4cce27e737ce1a19579cb8c89fb9d7b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"775\"/></p><p>微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。</p><p>基于Llama 3.1 405B运行<strong>对话式AI、内容生成、AI Agent及聊天机器人、总结摘要</strong>等任务时,MI300的推理速度最多达到英伟达H100的<strong>1.3倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/95deab354ee277b2cd3b4a5bf999b333\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>新推出的<strong>MI325X</strong>进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快<strong>20%~40%</strong>。</p><p></p><p>MI325X拥有<strong>1530亿颗晶体管</strong>,采用CDNA 3架构、<strong>256GB HBM3E</strong>内存,内存带宽达<strong>6TB/s</strong>,FP8峰值性能达到<strong>2.6PFLOPS</strong>,FP16峰值性能达到<strong>1.3PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2f2c29bc84436a0848992da2cf0a1aec\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"555\"/></p><p>由8张MI325X组成的服务器平台有<strong>2TB HBM3E</strong>内存;内存带宽达到<strong>48TB/s</strong>;Infinity Fabric总线带宽为<strong>896GB/s</strong>;FP8性能最高达<strong>20.8PFLOPS</strong>,FP16性能最高达<strong>10.4PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c0b2dce0d2d0e2cdd0c7f85ffd801af2\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高<strong>40%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0e893fe22e4b02e876ba23554198aa00\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>从训练性能来看,单张MI325X训练Llama 2 7B的速度<strong>超过单张H200</strong>,8张MI325X训练Llama 2 70B的性能<strong>比肩H200 HGX</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3cd1145a1a0fbce00ac65fa50e519b5c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD Instinct MI325X加速器或将于<strong>今年第四季度</strong>投产,将从<strong>明年第一季度</strong>起为平台供应商提供。</p><p>下一代<strong>MI350</strong>系列采用<strong>3nm制程工艺</strong>、新一代<strong>CDNA 4架构</strong>、<strong>288GB HBM3E</strong>内存,新增对<strong>FP4/FP6</strong>数据类型的支持,推理性能相比基于CDNA 3的加速器有高达<strong>35倍</strong>的提升,有望在<strong>2025年下半年</strong>上市。</p><p></p><p><strong>MI355X</strong>加速器的FP8和FP16性能相比MI325X提升了<strong>80%</strong>,FP16峰值性能达到<strong>2.3PFLOPS</strong>,FP8峰值性能达到<strong>4.6PFLOPS</strong>,FP6和FP4峰值性能达到<strong>9.2PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2dd2a8b878ebd31a33d7b01264c44565\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>8张MI355X共有<strong>2.3TB HBM3E</strong>内存,内存带宽达到<strong>64TB/s</strong>,FP16峰值性能达到<strong>18.5PFLOPS</strong>,FP8峰值性能达到<strong>37PFLOPS</strong>,新增FP6和FP4的峰值性能为<strong>74PFLOPS</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e002d554eb4a0475edfb14e9c0f20787\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"496\"/></p><p>三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达<strong>7.4倍</strong>、HBM内存提高多达<strong>1.5倍</strong>、支持的模型参数量提升幅度接近<strong>6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3960554d9c69ea50650a105cc0d6b698\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"531\"/></p><p>AMD持续投资软件和开放生态系统,在<strong>AMD ROCm</strong>开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过<strong>100万款</strong>模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/af7b4ed19ddb9050c377b16a5c93c031\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的<strong>2.4倍</strong>、<strong>1.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/797f5960d6f04b7bbb4d9a9f85c7739f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>此前AMD收购了欧洲最大的私人AI实验室<strong>Silo AI</strong>,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。</p><p><strong><em>02.</em></strong></p><p><strong>下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU</strong></p><p>网络是实现最佳系统性能的基础。AI模型平均有<strong>30%</strong>的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了<strong>40%-75%</strong>的时间。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e2f76e5a1aac82eef4cdf5799cad3ca7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>AI网络</strong>分为前端和后端:<strong>前端</strong>向AI集群提供数据和信息,可编程DPU不断发展;<strong>后端</strong>管理加速器与集群间的数据传输,关键在于获得最大利用率。</p><p>为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的<strong>Pensando Salina 400 DPU</strong>和应用于后端网络的<strong>Pensando Pollara 400网卡</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9441441b2cce432b1950cf545ec40670\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"419\"/></p><p><strong>Salina 400</strong>是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的<strong>两倍</strong>;<strong>Pollara 400</strong>是<strong>业界首款</strong>支持超以太网联盟(UEC)的AI网卡。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c75467cf530a4fdd01dab4c9ec54e68e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>Salina 400支持<strong>400G</strong>吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。</p><p>Pollara 400采用<strong>AMD P4可编程引擎</strong>,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8da1694e8e69813855db46082cc3d775\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的<strong>6倍</strong>,整体完成速度是RoCEv2的<strong>5倍</strong>。</p><p>在后端网络,相比InfiniBand,<strong>以太网RoCEv2</strong>是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过<strong>50%</strong>,能够扩展<strong>100万张</strong>GPU。而InfiniBand至多能扩展<strong>48000张</strong>GPU。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a138e9f4bcdcb966b7fad8a863fb9a3\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong><em>03.</em></strong></p><p><strong>服务器CPU:</strong></p><p><strong>3/4nm制程,最多192核/384线程</strong></p><p>今年7月公布财报时,苏姿丰提到今年上半年,有超过<strong>1/3</strong>的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/54413da2e23408d98b228ce8b89ace5d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>第五代EPYC处理器9005系列(代号“Turin”)</strong>专为现代数据中心设计。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1c897d6a44ea15989bd42825ebc2e70d\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"553\"/></p><p>该处理器在<strong>计算、内存、IO与平台、安全</strong>四大层面全面升级。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/051eaa0ca703c8e64ac08391960eb010\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"436\"/></p><p>第五代EPYC拥有<strong>1500亿颗晶体管</strong>,采用<strong>台积电3/4nm 制程</strong>、全新<strong>“Zen 5”</strong> 及<strong>“Zen 5c”</strong>核心兼容广泛部署的SP5平台,最多支持<strong>192核</strong>、<strong>384个线程</strong>,8~192核的功耗范畴为<strong>155W~500W</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9caab42b5d50aabafa28b4d3323de4f5\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达<strong>5GHz</strong>,机密计算的可信I/O和FIPS认证正在进行中。</p><p>与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升<strong>17%</strong>的IPC(每时钟指令数),为AI和HPC提供了提升<strong>37%</strong>的IPC。</p><p>在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的<strong>2.7倍</strong>,32核EPYC 9355的每核心性能是32核6548Y+的<strong>1.4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a0b679a0ae5895918326d3b23da35e0\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>跑<strong>视频转码、商用App、开源数据库、图像渲染</strong>等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的<strong>3~4倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ad9c7887bdfadcf35d3a6701b123800f\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"479\"/></p><p>在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的<strong>2.1~3.9倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/289c442b6f059fdba7cc08338d6ed904\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。</p><p>例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比<strong>1000台</strong>搭载英特尔至强铂金8280的服务器,现在<strong>131台</strong>搭载AMD EPYC 9965的现代服务器就能实现,<strong>功耗、3年TCO均显著减少</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4727671bce2928b420788d60067c1e1b\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4b0113d7cddd443867c08ec8a3f9a2f9\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"519\"/></p><p>相比64核至强8592+,192核EPYC 9965在运行<strong>机器学习、端到端AI、相似搜索、大语言模型</strong>等工作负载时,推理性能提升多达<strong>1.9~3.8倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8a05ba31aaa6e6f187dee0fbcd55b384\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。</p><p>与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达<strong>5GHz</strong>的提升,可将GPU编排任务的处理速度提高<strong>28%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b803e1f825063d0964e582450a0c8958\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的<strong>1.6倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/345f276ccda90354b7cad8b7318f23b7\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"457\"/></p><p>EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达<strong>70万</strong>个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升<strong>20%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7daa252fcd7733d0a7da8bde013d8203\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p><strong>搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7fb4b026c25fadea4c82c6ca4849df34\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"466\"/></p><p>同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升<strong>20%</strong>、<strong>15%</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d448e618dbba91fd2ba9acaa801caf7c\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"481\"/></p><p><strong>与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e06e79af270dc83542a798bc18150f25\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"513\"/></p><p>将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达<strong>2倍</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ee889c9281e87d8f3c104fa2633c700\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p><strong><em>04.</em></strong></p><p><strong>企业级AI PC处理器:</strong></p><p><strong>升级“Zen 5”架构,AI算力最高55TOPS</strong></p><p>AI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b8ae8ee0c18facbe27a7e6c8d58fbaf4\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"750\"/></p><p>继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出<strong>锐龙AI PRO 300系列</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e1ba96850be44d292c4ea583742b0dd1\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"586\"/></p><p>该处理器专为提高企业生产力而设计,采用<strong>4nm工艺</strong>、<strong>“Zen 5”</strong> CPU架构(最多12核、24个线程)、<strong>RDNA 3.5</strong> GPU架构(最多16个计算单元),支持<strong>Copilot+</strong>功能,包括电话会议实时字幕、语言翻译、AI图像生成等。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/05679c7eb0571c5b60373a962adbf3bb\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"584\"/></p><p>其内置NPU可提供<strong>50-55TOPS</strong>的AI处理能力。</p><p><strong>40TOPS</strong>是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bee408b80a9cee1d96cb628f31b41796\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"503\"/></p><p>与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了<strong>40%</strong>,办公生产力提高了<strong>14%</strong>,支持<strong>更长续航</strong>。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/da0e971f65596c21ebd5fab5579b2622\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"532\"/></p><p>锐龙AI PRO 300系列采用<strong>AMD PRO</strong>技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3073a8ac5edf87848c6862d7cf41980e\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"767\"/></p><p>由搭载锐龙AI PRO 300系列的OEM系统预计将于<strong>今年晚些时候</strong>上市。</p><p>AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f77bee913c28af1c50f1fed26dfaa105\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"529\"/></p><p>通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。</p><p><strong><em>05.</em></strong></p><p><strong>结语:AMD正在数据中心市场攻势凶猛</strong></p><p>AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。</p><p>AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a979bbc5a2ba10dea89c7bb3acddf306\" alt=\"\" title=\"\" tg-width=\"1000\" tg-height=\"512\"/></p><p>无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。</p></body></html>","source":"zhidxcom","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n苏姿丰2小时激情演讲!发布AMD最强AI芯片,旗舰CPU单颗10万,OpenAI微软都来站台\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-10-11 05:57 北京时间 <a href=https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ><strong>智东西</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/2fc45091272b4362ffb0a84b85a713a0","relate_stocks":{"AMD":"美国超微公司"},"source_url":"https://mp.weixin.qq.com/s/glLHm6f__IEESiM-lWBgnQ","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1153860099","content_text":"五大硬核新品,轰向AI计算!猛,实在是猛!就在今日,老牌芯片巨头AMD交出了一份令人印象深刻的AI答卷。10月10日,酷热的天气刚刚过去,旧金山正值秋意凉爽,今日举行的AMD Advancing AI 2024盛会却格外火热。AMD倾囊倒出了一系列AI杀手锏,发布全新旗舰AI芯片、服务器CPU、AI网卡、DPU和AI PC移动处理器,将AI计算的战火烧得更旺。这家芯片巨头还大秀AI朋友圈,现场演讲集齐了谷歌、OpenAI、微软、Meta、xAI、Cohere、RekaAI等重量级AI生态伙伴。备受期待的旗舰AI芯片AMD Instinct MI325X GPU首次启用HBM3E高带宽内存,AI峰值算力达到21PFLOPS,并与去年发布的、同样采用HBM3E的英伟达H200 GPU用数据掰手腕:内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍。AMD还披露了最新的AI芯片路线图,采用CDNA 4架构的MI350系列明年上市,其中MI355X的AI峰值算力达到74PFLOPS,MI400系列将采用更先进的CDNA架构。更高的数据中心算力,离不开先进的网络解决方案。对此,AMD发布了业界首款支持UEC超以太网联盟的AI网卡Pensando Pollara 400和性能翻倍提升的Pensando Salina 400 DPU。另一款重磅新品是第五代EPYC服务器CPU,被AMD称为“面向云计算、企业级和AI的全球最好CPU”,采用台积电3/4nm制程工艺,最多支持192核、384个线程。其中顶配EPYC 9965默认热设计功耗500W,以1000颗起订的单价为14813美元(约合人民币10万元)。与第五代英特尔至强铂金8592+处理器相比,AMD EPYC 9575F处理器的SPEC CPU性能提高多达2.7倍,企业级性能提高多达4.0倍,HPC(高性能计算)性能提高多达3.9倍,基于CPU的AI加速提高多达3.8倍,GPU主机节点提升多达1.2倍。自2017年重回数据中心市场后,AMD一路势头强劲:其数据中心CPU收入市占率在2018年还只有2%,今年上半年已攀爬到34%,在全球覆盖超过950个云实例和超过350个OxM平台。AMD是唯一一家能够提供全套CPU、GPU和网络解决方案来满足现代数据中心所有需求的公司。AI PC芯片也迎来了新成员——AMD第三代商用AI移动处理器锐龙AI PRO 300系列。它被AMD称作“为下一代企业级AI PC打造的全球最好处理器”,预计到2025年将有超过100万台锐龙AI PRO PC上市。01.旗舰AI芯片三代同堂:内存容量带宽暴涨,峰值算力冲9.2PFAI芯片,正成为AMD业务增长的重头戏。AMD去年12月发布的Instinct MI300X加速器,已经成为AMD历史上增长最快的产品,不到两个季度销售额就超过了10亿美元。今年6月,AMD公布全新年度AI GPU路线图,最新一步便是今日发布的Instinct MI325X。在7月公布季度财报时,AMD董事会主席兼CEO苏姿丰博士透露,AMD预计其今年数据中心GPU收入将超过45亿美元。微软、OpenAI、Meta、Cohere、Stability AI、Lepton AI(贾扬清创办)、World Labs(李飞飞创办)等公司的很多主流生成式AI解决方案均已采用MI300系列AI芯片。微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。基于Llama 3.1 405B运行对话式AI、内容生成、AI Agent及聊天机器人、总结摘要等任务时,MI300的推理速度最多达到英伟达H100的1.3倍。新推出的MI325X进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快20%~40%。MI325X拥有1530亿颗晶体管,采用CDNA 3架构、256GB HBM3E内存,内存带宽达6TB/s,FP8峰值性能达到2.6PFLOPS,FP16峰值性能达到1.3PFLOPS。由8张MI325X组成的服务器平台有2TB HBM3E内存;内存带宽达到48TB/s;Infinity Fabric总线带宽为896GB/s;FP8性能最高达20.8PFLOPS,FP16性能最高达10.4PFLOPS。相比英伟达H200 HGX,MI325X服务器平台在跑Llama 3.1 405B时,推理性能可提高40%。从训练性能来看,单张MI325X训练Llama 2 7B的速度超过单张H200,8张MI325X训练Llama 2 70B的性能比肩H200 HGX。AMD Instinct MI325X加速器或将于今年第四季度投产,将从明年第一季度起为平台供应商提供。下一代MI350系列采用3nm制程工艺、新一代CDNA 4架构、288GB HBM3E内存,新增对FP4/FP6数据类型的支持,推理性能相比基于CDNA 3的加速器有高达35倍的提升,有望在2025年下半年上市。MI355X加速器的FP8和FP16性能相比MI325X提升了80%,FP16峰值性能达到2.3PFLOPS,FP8峰值性能达到4.6PFLOPS,FP6和FP4峰值性能达到9.2PFLOPS。8张MI355X共有2.3TB HBM3E内存,内存带宽达到64TB/s,FP16峰值性能达到18.5PFLOPS,FP8峰值性能达到37PFLOPS,新增FP6和FP4的峰值性能为74PFLOPS。三代GPU的配置显著升级:相比8卡MI300X,8卡MI355X的AI峰值算力提升多达7.4倍、HBM内存提高多达1.5倍、支持的模型参数量提升幅度接近6倍。AMD持续投资软件和开放生态系统,在AMD ROCm开放软件栈中提供新特性和功能,可原生支持主流AI框架及工具,具备开箱即用特性,搭配AMD Instinct加速器支持主流生成式AI模型及Hugging Face上的超过100万款模型。ROCm 6.2现包括对关键AI功能的支持,如FP8数据类型、Flash Attention、内核融合等,可将AI大模型的推理性能、训练性能分别提升至ROCm 6.0的2.4倍、1.8倍。此前AMD收购了欧洲最大的私人AI实验室Silo AI,以解决消费级AI最后一英里问题,加快AMD硬件上AI模型的开发和部署。欧洲最快的超级计算机LUMI便采用AMD Instinct加速器来训练欧洲语言版的大语言模型。02.下一代AI网络:后端引入业界首款支持UEC的AI网卡,前端上新400G可编程DPU网络是实现最佳系统性能的基础。AI模型平均有30%的训练周期时间都花在网络等待上。在训练和分布式推理模型中,通信占了40%-75%的时间。AI网络分为前端和后端:前端向AI集群提供数据和信息,可编程DPU不断发展;后端管理加速器与集群间的数据传输,关键在于获得最大利用率。为了有效管理这两个网络,并推动整个系统的性能、可扩展性和效率提升,AMD今日发布了应用于前端网络的Pensando Salina 400 DPU和应用于后端网络的Pensando Pollara 400网卡。Salina 400是AMD第三代可编程DPU,被AMD称作“前端网络最佳DPU”,其性能、带宽和规模均提高至上一代DPU的两倍;Pollara 400是业界首款支持超以太网联盟(UEC)的AI网卡。Salina 400支持400G吞吐量,可实现快速数据传输速率,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。Pollara 400采用AMD P4可编程引擎,支持下一代RDMA软件,并以开放的网络生态系统为后盾,对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。UEC Ready RDMA支持智能数据包喷发和有序消息传递、避免拥塞、选择性重传和快速损失恢复。这种传输方式的消息完成速度是RoCEv2的6倍,整体完成速度是RoCEv2的5倍。在后端网络,相比InfiniBand,以太网RoCEv2是更好的选择,具有低成本、高度可扩展的优势,可将TCO节省超过50%,能够扩展100万张GPU。而InfiniBand至多能扩展48000张GPU。03.服务器CPU:3/4nm制程,最多192核/384线程今年7月公布财报时,苏姿丰提到今年上半年,有超过1/3的企业服务器订单来自首次在其数据中心部署EPYC服务器CPU的企业。第五代EPYC处理器9005系列(代号“Turin”)专为现代数据中心设计。该处理器在计算、内存、IO与平台、安全四大层面全面升级。第五代EPYC拥有1500亿颗晶体管,采用台积电3/4nm 制程、全新“Zen 5” 及“Zen 5c”核心兼容广泛部署的SP5平台,最多支持192核、384个线程,8~192核的功耗范畴为155W~500W。它支持AVX-512全宽512位数据路径、128 PCIe 5.0/CXL 2.0、DDR5-6400MT/s内存速率,提升频率高达5GHz,机密计算的可信I/O和FIPS认证正在进行中。与“Zen 4”相比,“Zen 5”核心架构为企业和云计算工作负载提供了提升17%的IPC(每时钟指令数),为AI和HPC提供了提升37%的IPC。在SPEC CPU 2017基准测试中,192核EPYC 9965的整数吞吐量是64核至强8592+的2.7倍,32核EPYC 9355的每核心性能是32核6548Y+的1.4倍。跑视频转码、商用App、开源数据库、图像渲染等商用工作负载时,192核EPYC 9965的性能达到64核至强8592+性能的3~4倍。在处理开源的HPC密集线性求解器、建模和仿真任务时,EPYC 9965的性能可达到至强8592+性能的2.1~3.9倍。达到相同性能,第五代EPYC所需的服务器数量更少,有助于降低数据中心的TCO(总拥有成本)以及节省空间和能源。例如,要达到总共391000个单位的SPECrate 2017_int_base性能得分,相比1000台搭载英特尔至强铂金8280的服务器,现在131台搭载AMD EPYC 9965的现代服务器就能实现,功耗、3年TCO均显著减少。通过优化的CPU+GPU解决方案,AMD EPYC CPU不仅能处理传统通用目的的计算,而且能胜任AI推理,还能作为AI主机处理器。相比64核至强8592+,192核EPYC 9965在运行机器学习、端到端AI、相似搜索、大语言模型等工作负载时,推理性能提升多达1.9~3.8倍。AMD EPYC 9005系列的新产品是64核EPYC 9575F,专为需要终极主机CPU能力的GPU驱动AI解决方案量身定制。与竞争对手的3.8GHz处理器相比,专用AI主机的CPU EPYC 9575F提供了高达5GHz的提升,可将GPU编排任务的处理速度提高28%。面向企业级HPC工作负载,64核EPYC 9575F的FEA仿真和CFD仿真&建模的性能,可提升至64核至强8592的1.6倍。EPYC 9575F可使用其5GHz的最大频率提升来助力1000个节点的AI集群每秒驱动多达70万个推理token。同样搭配MI300X GPU,与64核至强8592+相比,EPYC 9575F将GPU系统训练Stable Diffusion XL v2文生图模型的性能提升20%。搭配Instinct系列GPU的AMD EPYC AI主机CPU型号如下:同样搭配英伟达H100,EPYC 9575F可将GPU系统的推理性能、训练性能分别相比至强8592+提升20%、15%。与英伟达GPU系统适配的AMD EPYC AI主机CPU型号如下:将EPYC用于计算与AI混合工作负载时,相比至强铂金8592+,EPYC 9654+2张Instinct MI210在处理50%通用计算+50% AI的混合任务时,每美元性能可提升多达2倍。04.企业级AI PC处理器:升级“Zen 5”架构,AI算力最高55TOPSAI PC给企业生产力、身临其境的远程协作、创作与编辑、个人AI助理都带来了全新转型体验。继今年6月推出第三代AI移动处理器锐龙AI 300系列处理器(代号“Strix Point”)后,今日AMD宣布推出锐龙AI PRO 300系列。该处理器专为提高企业生产力而设计,采用4nm工艺、“Zen 5” CPU架构(最多12核、24个线程)、RDNA 3.5 GPU架构(最多16个计算单元),支持Copilot+功能,包括电话会议实时字幕、语言翻译、AI图像生成等。其内置NPU可提供50-55TOPS的AI处理能力。40TOPS是微软Copilot+ AI PC的基准要求。相比之下,苹果M4、AMD锐龙PRO 8040系列、英特尔酷睿Ultra 100系列的NPU算力分别为38TOPS、16TOPS、11TOPS。与英特尔酷睿Ultra 7 165H相比,旗舰锐龙AI 9 HX PRO 375的多线程性能提高了40%,办公生产力提高了14%,支持更长续航。锐龙AI PRO 300系列采用AMD PRO技术,提供世界级领先的安全性和可管理性,旨在简化IT运营及部署并确保企业获得卓越的投资回报率。由搭载锐龙AI PRO 300系列的OEM系统预计将于今年晚些时候上市。AMD也扩展了其PRO技术阵容,具有新的安全性和可管理性功能。配备AMD PRO技术的移动商用处理器现有云裸机恢复的标准配置,支持IT团队通过云无缝恢复系统,确保平稳和持续的操作;提供一个新的供应链安全功能,实现整个供应链的可追溯性;看门狗定时器,提供额外的检测和恢复过程,为系统提供弹性支持。通过AMD PRO技术,还能实现额外的基于AI的恶意软件检测。这些全新的安全特性利用集成的NPU来运行基于AI的安全工作负载,不会影响日常性能。05.结语:AMD正在数据中心市场攻势凶猛AMD正沿着路线图,加速将AI基础设施所需的各种高性能AI解决方案推向市场,并不断证明它能够提供满足数据中心需求的多元化解决方案。AI已经成为AMD战略布局的焦点。今日新发布的Instinct加速器、霄龙服务器CPU、Pensando网卡&DPU、锐龙AI PRO 300 系列处理器,与持续增长的开放软件生态系统形成了组合拳,有望进一步增强AMD在AI基础设施竞赛中的综合竞争力。无论是蚕食服务器CPU市场,还是新款AI芯片半年揽金逾10亿美元,都展现出这家老牌芯片巨头在数据中心领域的冲劲。紧锣密鼓的AI芯片产品迭代、快速扩张的全栈软硬件版图,都令人愈发期待AMD在AI计算市场创造出惊喜。","news_type":1},"isVote":1,"tweetType":1,"viewCount":389,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}]}