加菲虎
2021-06-26
阿里加油!
阿里发布万亿参数AI大模型M6,相比英伟达、谷歌算力消耗降八成
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":125132250,"tweetId":"125132250","gmtCreate":1624663463770,"gmtModify":1624663463770,"author":{"id":3494553288861128,"idStr":"3494553288861128","authorId":3494553288861128,"authorIdStr":"3494553288861128","name":"加菲虎","avatar":"https://static.laohu8.com/default-avatar.jpg","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":0,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"extraTitle":"","html":"<html><head></head><body><p>阿里加油!</p></body></html>","htmlText":"<html><head></head><body><p>阿里加油!</p></body></html>","text":"阿里加油!","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/125132250","repostId":2146902052,"repostType":2,"repost":{"id":"2146902052","kind":"news","pubTimestamp":1624605300,"share":"https://www.laohu8.com/m/news/2146902052?lang=&edition=full","pubTime":"2021-06-25 15:15","market":"us","language":"zh","title":"阿里发布万亿参数AI大模型M6,相比英伟达、谷歌算力消耗降八成","url":"https://stock-news.laohu8.com/highlight/detail?id=2146902052","media":"赛迪网","summary":"6月25日,阿里巴巴达摩院发布“低碳版”巨模型M6,在全球范围内首次大幅降低万亿参数超大模型训练能耗。通过一系列突破性的技术创新,达摩院团队仅使用480卡GPU,即训练出了规模达人类神经元10倍的万亿参数多模态大模型M6,与英伟达、谷歌等海外公司实现万亿参数规模相比,能耗降低超八成、效率提升近11倍。","content":"<html><body><article><p>6月25日,<a href=\"https://laohu8.com/S/BABA\">阿里巴巴</a>达摩院发布“低碳版”巨模型M6,在全球范围内首次大幅降低万亿参数超大模型训练能耗。通过一系列突破性的技术创新,达摩院团队仅使用480卡GPU,即训练出了规模达人类神经元10倍的万亿参数多模态大模型M6,与<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>、<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>等海外公司实现万亿参数规模相比,能耗降低超八成、效率提升近11倍。</p><p>大模型将成下一代人工智能基础设施,在AI界已成共识。与生物体神经元越多往往越聪明类似,参数规模越大的AI模型,往往拥有更高的智慧上限,训练大模型或将让人类在探索通用人工智能上更进一步。然而,大模型算力成本也相当高昂,很大程度阻碍了学界、工业界对大模型潜力的深入研究。</p><p>针对这一难题,达摩院及阿里云等团队改进了MOE(Mixture-of-Experts)框架,创造性地通过专家并行策略,大大扩增了单个模型的承载容量。同时,通过加速线性代数、混合精度训练、半精度通信等优化技术,达摩院团队大幅提升了万亿模型训练速度,且在效果接近无损的前提下有效降低了所需计算资源。</p><p>相比此前英伟达使用3072 A100 GPU实现万亿参数、谷歌使用2048 TPU实现1.6万亿参数大模型,此次达摩院仅使用480卡V100 32G GPU就实现了万亿模型M6,节省算力资源超80%,且训练效率提升近11倍。</p><p>同时,达摩院此次发布的M6巨模型,成为国内首个实现商业化落地的多模态大模型。M6拥有超越传统AI的认知和创造能力,擅长绘画、写作、问答,在电商、制造业、文学艺术等诸多领域拥有广泛应用前景。</p><p>据了解,经过一段时间的试用,M6将作为AI助理设计师正式上岗阿里新制造平台犀牛智造,通过结合潮流趋势进行快速设计、试穿效果模拟,有望大幅缩短快时尚新款服饰设计周期。M6还已应用于支付宝、淘宝等平台,参与跨模态搜索、文案撰写、图片设计等工作。</p><p>达摩院资深算法专家杨红霞表示,“接下来,M6团队将继续把低碳AI做到极致,推进应用进一步落地,并探索对通用大模型的理论研究。”</p><p>今年以来,阿里在超大规模预训练模型领域屡出成果。除发布多模态巨模型M6外,阿里巴巴达摩院近期还发布了中文社区领先的语言大模型PLUG,实现了在AI大模型底层技术及应用上的深入布局。</p></article></body></html>","source":"tencent","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>阿里发布万亿参数AI大模型M6,相比英伟达、谷歌算力消耗降八成</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n阿里发布万亿参数AI大模型M6,相比英伟达、谷歌算力消耗降八成\n</h2>\n\n<h4 class=\"meta\">\n\n\n2021-06-25 15:15 北京时间 <a href=http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN202106251521127c18e476&s=b><strong>赛迪网</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>6月25日,阿里巴巴达摩院发布“低碳版”巨模型M6,在全球范围内首次大幅降低万亿参数超大模型训练能耗。通过一系列突破性的技术创新,达摩院团队仅使用480卡GPU,即训练出了规模达人类神经元10倍的万亿参数多模态大模型M6,与英伟达、谷歌等海外公司实现万亿参数规模相比,能耗降低超八成、效率提升近11倍。大模型将成下一代人工智能基础设施,在AI界已成共识。与生物体神经元越多往往越聪明类似,参数规模越大...</p>\n\n<a href=\"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN202106251521127c18e476&s=b\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/f13f9296c3b006f981500ed5d2af766f","relate_stocks":{"GOOG":"谷歌","09086":"华夏纳指-U","GOOGL":"谷歌A","NVDA":"英伟达","QNETCN":"纳斯达克中美互联网老虎指数","09988":"阿里巴巴-W","BABA":"阿里巴巴","03086":"华夏纳指"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN202106251521127c18e476&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/9a95c1376e76363c1401fee7d3717173","article_id":"2146902052","content_text":"6月25日,阿里巴巴达摩院发布“低碳版”巨模型M6,在全球范围内首次大幅降低万亿参数超大模型训练能耗。通过一系列突破性的技术创新,达摩院团队仅使用480卡GPU,即训练出了规模达人类神经元10倍的万亿参数多模态大模型M6,与英伟达、谷歌等海外公司实现万亿参数规模相比,能耗降低超八成、效率提升近11倍。大模型将成下一代人工智能基础设施,在AI界已成共识。与生物体神经元越多往往越聪明类似,参数规模越大的AI模型,往往拥有更高的智慧上限,训练大模型或将让人类在探索通用人工智能上更进一步。然而,大模型算力成本也相当高昂,很大程度阻碍了学界、工业界对大模型潜力的深入研究。针对这一难题,达摩院及阿里云等团队改进了MOE(Mixture-of-Experts)框架,创造性地通过专家并行策略,大大扩增了单个模型的承载容量。同时,通过加速线性代数、混合精度训练、半精度通信等优化技术,达摩院团队大幅提升了万亿模型训练速度,且在效果接近无损的前提下有效降低了所需计算资源。相比此前英伟达使用3072 A100 GPU实现万亿参数、谷歌使用2048 TPU实现1.6万亿参数大模型,此次达摩院仅使用480卡V100 32G GPU就实现了万亿模型M6,节省算力资源超80%,且训练效率提升近11倍。同时,达摩院此次发布的M6巨模型,成为国内首个实现商业化落地的多模态大模型。M6拥有超越传统AI的认知和创造能力,擅长绘画、写作、问答,在电商、制造业、文学艺术等诸多领域拥有广泛应用前景。据了解,经过一段时间的试用,M6将作为AI助理设计师正式上岗阿里新制造平台犀牛智造,通过结合潮流趋势进行快速设计、试穿效果模拟,有望大幅缩短快时尚新款服饰设计周期。M6还已应用于支付宝、淘宝等平台,参与跨模态搜索、文案撰写、图片设计等工作。达摩院资深算法专家杨红霞表示,“接下来,M6团队将继续把低碳AI做到极致,推进应用进一步落地,并探索对通用大模型的理论研究。”今年以来,阿里在超大规模预训练模型领域屡出成果。除发布多模态巨模型M6外,阿里巴巴达摩院近期还发布了中文社区领先的语言大模型PLUG,实现了在AI大模型底层技术及应用上的深入布局。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1520,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":9,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/125132250"}
精彩评论