Nathan.c
2024-05-09
首先“地表最强”里的地表是指哪一块地?一会儿并行者一会儿又一较高下,请问较了没,那么何来最强?这逻辑实在看不太明白,不吹不会死
重大发布!阿里云宣布:全面赶超GPT-4!
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
2
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":304027490308296,"tweetId":"304027490308296","gmtCreate":1715246905658,"gmtModify":1715246919382,"author":{"id":4155135294821732,"idStr":"4155135294821732","authorId":4155135294821732,"authorIdStr":"4155135294821732","name":"Nathan.c","avatar":"https://static.tigerbbs.com/bd37b44065ff2c22c5d4e01323b5d931","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":2,"crmLevelSwitch":0,"currentWearingBadge":{"badgeId":"228c86a078844d74991fff2b7ab2428d-2","templateUuid":"228c86a078844d74991fff2b7ab2428d","name":"投资总监虎","description":"证券账户累计交易金额达到30万美元","bigImgUrl":"https://static.tigerbbs.com/9d20b23f1b6335407f882bc5c2ad12c0","smallImgUrl":"https://static.tigerbbs.com/ada3b4533518ace8404a3f6dd192bd29","grayImgUrl":"https://static.tigerbbs.com/177f283ba21d1c077054dac07f88f3bd","redirectLinkEnabled":0,"hasAllocated":1,"isWearing":1,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.08.20","exceedPercentage":"80.94%","individualDisplayEnabled":0},"individualDisplayBadges":[],"fanSize":2,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>首先“地表最强”里的地表是指哪一块地?一会儿并行者一会儿又一较高下,请问较了没,那么何来最强?这逻辑实在看不太明白,不吹不会死</p></body></html>","htmlText":"<html><head></head><body><p>首先“地表最强”里的地表是指哪一块地?一会儿并行者一会儿又一较高下,请问较了没,那么何来最强?这逻辑实在看不太明白,不吹不会死</p></body></html>","text":"首先“地表最强”里的地表是指哪一块地?一会儿并行者一会儿又一较高下,请问较了没,那么何来最强?这逻辑实在看不太明白,不吹不会死","highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/304027490308296","repostId":2434057582,"repostType":2,"repost":{"id":"2434057582","kind":"news","weMediaInfo":{"introduction":"致力于提供最及时的财经资讯,最专业的解读分析,覆盖宏观经济、金融机构、A股市场、上市公司、投资理财等财经领域。","home_visible":1,"media_name":"券商中国","id":"9","head_image":"https://static.tigerbbs.com/d482d56459984e8c86a6a137295b3c4f"},"pubTimestamp":1715244651,"share":"https://www.laohu8.com/m/news/2434057582?lang=&edition=full","pubTime":"2024-05-09 16:50","market":"us","language":"zh","title":"重大发布!阿里云宣布:全面赶超GPT-4!","url":"https://stock-news.laohu8.com/highlight/detail?id=2434057582","media":"券商中国","summary":"通义大模型发布一周年之际,迎来重要的历史性时刻!5月9日,阿里云召开峰会,正式发布通义千问2.5,模型性能全面赶超GPT-4-Turbo,成为“地表最强”中文大模型。同时,通义千问1100亿参数开源模型在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B,成为开源领域最强大模型。","content":"<html><head></head><body><p>通义大模型发布一周年之际,迎来重要的历史性时刻!</p><p style=\"text-align: justify;\">5月9日,阿里云召开峰会,正式发布通义千问2.5,模型性能全面赶超GPT-4-Turbo,成为“地表最强”中文大模型。同时,通义千问1100亿参数开源模型在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B,成为开源领域最强大模型。</p><p style=\"text-align: justify;\">在峰会当日,原通义千问APP宣布更名为“通义APP”,将通义大模型全套能力集于一身,致力于成为“通情达义”的AI助手。</p><p><strong>最强中文大模型来了</strong></p><p style=\"text-align: justify;\">历经一年多追赶,国产大模型终于进入大模型核心竞技场,可与国外一流大模型企业一较高下。</p><p style=\"text-align: justify;\">从现实情况来看,大模型技术爆发一年多,行业竞争态势激烈而又多变。通义千问走了一条最“卷”的路,自2023年4月问世以来,始终专注于基础模型的技术研发,从初代模型升级至2.5版本。</p><p style=\"text-align: justify;\">相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%,中文能力更是持续领先业界。根据权威基准Open Compass的测评结果,通义千问2.5得分追平GPT-4-Turbo,是该基准首次录得国产大模型取得如此出色的成绩。</p><p class=\"t-img-caption\"><img alt=\"\" src=\"https://static.tigerbbs.com/e0b0219ddd1cd838025790ede07524d5\" tg-height=\"830\" tg-width=\"1080\" title=\"\"/></p><p style=\"text-align: justify;\">同时,通义还发布了1100亿参数开源模型Qwen1.5-110B,该模型在MMLU、Theorem QA、GPQA等基准测评中超越了Meta的Llama-3-70B模型;在Hugging Face推出的开源大模型排行榜Open LLM Leaderboard上,Qwen1.5-110B冲上榜首,再度证明通义开源系列业界竞争力领先。</p><p style=\"text-align: justify;\">此外,通义在多模态模型和专有能力模型也具备业界顶尖影响力。在多个多模态标准测试中,通义千问视觉理解模型Qwen-VL-Max得分超越Gemini Ultra和GPT-4V,这款模型已在多家企业落地应用;通义千问代码大模型Code Qwen1.5-7B则是Hugging Face代码模型榜单Big Code的头号选手,这款模型是国内用户规模第一的智能编码助手通义灵码的底座。</p><p style=\"text-align: justify;\">从曾经的追赶者到如今的并行者,一年间,通义发展出了业界领先的文生图、智能编码、文档解析、音视频理解等能力,企业客户和开发者可以通过API调用、模型下载等方式接入通义,个人用户可从APP、官网和小程序免费使用通义。</p><p><strong>始终坚定开源路线</strong></p><p style=\"text-align: justify;\">据了解,通义是大模型开源最积极的推动者和实践者。去年8月,通义宣布加入开源行列,随之启动马不停蹄的开源狂飙,沿着“全模态、全尺寸”开源的路线,陆续推出十多款开源模型。目前,通义开源模型下载量已经超过700万。</p><p style=\"text-align: justify;\">“开发者的反馈和开源社区的生态支持,是通义大模型技术进步的重要助力。”阿里云CTO周靖人透露,未来通义大模型还会持续开源。</p><p class=\"t-img-caption\"><img alt=\"阿里云首席技术官周靖人宣布重磅发布\" src=\"https://static.tigerbbs.com/8d299ab5dd96c94331037a28bf647b63\" tg-height=\"583\" tg-width=\"1080\" title=\"阿里云首席技术官周靖人宣布重磅发布\"/><span>阿里云首席技术官周靖人宣布重磅发布</span></p><p style=\"text-align: justify;\">从现实情况来看,大模型的训练和迭代成本极高,绝大部分的AI开发者和中小企业都无法负担。Meta、阿里云等推动的大模型开源风潮,让开发者们不必从头训练模型,还把模型选型的主动权交给了开发者,大大加速了大模型的应用落地进程。</p><p style=\"text-align: justify;\">为顺应不同场景用户的需求,通义推出参数规模横跨5亿到1100亿的八款大语言模型,小尺寸模型如0.5B、1.8B、4B、7B、14B,可便捷地在手机、PC等端侧设备部署;大尺寸模型如72B、110B,能支持企业级和科研级的应用;中等尺寸如32B,试图在性能、效率和内存占用之间找到最具性价比的平衡点。此外,通义还开源了视觉理解模型Qwen-VL、音频理解模型Qwen-Audio、代码模型CodeQwen1.5-7B、混合专家模型Qwen1.5-MoE。</p><p style=\"text-align: justify;\">通义72B、110B开源模型都曾登顶OpenLLMLeaderboard榜首。在开放研究机构LMSYSOrg推出的基准测试平台Chatbot Arena上,通义72B模型多次进入“盲测”结果全球Top 10,创造了国产大模型的先例。</p><p style=\"text-align: justify;\">根据最新数据,通义通过阿里云服务企业超过9万、通过钉钉服务企业超过220万,目前已应用于PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等行业。</p><p style=\"text-align: justify;\">就在5月9日,小米旗下的智能助手“小爱同学”宣布与阿里云通义大模型达成合作,强化其在图片生成、图片理解等方面的多模态AI生成能力;新浪、众安保险、完美世界游戏、中国一汽等企业也宣布接入通义大模型,将大模型应用于社交媒体、保险、游戏等领域。</p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta content=\"text/html; charset=utf-8\" http-equiv=\"Content-Type\"/>\n<meta content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\" name=\"viewport\"/>\n<meta content=\"telephone=no,email=no,address=no\" name=\"format-detection\"/>\n<title>重大发布!阿里云宣布:全面赶超GPT-4!</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n重大发布!阿里云宣布:全面赶超GPT-4!\n</h2>\n<h4 class=\"meta\">\n<a class=\"head\" href=\"https://laohu8.com/wemedia/9\">\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/d482d56459984e8c86a6a137295b3c4f);background-size:cover;\"></div>\n<div class=\"h-content\">\n<p class=\"h-name\">券商中国 </p>\n<p class=\"h-time\">2024-05-09 16:50</p>\n</div>\n</a>\n</h4>\n</header>\n<article>\n<p>通义大模型发布一周年之际,迎来重要的历史性时刻!</p><p style=\"text-align: justify;\">5月9日,阿里云召开峰会,正式发布通义千问2.5,模型性能全面赶超GPT-4-Turbo,成为“地表最强”中文大模型。同时,通义千问1100亿参数开源模型在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B,成为开源领域最强大模型。</p><p style=\"text-align: justify;\">在峰会当日,原通义千问APP宣布更名为“通义APP”,将通义大模型全套能力集于一身,致力于成为“通情达义”的AI助手。</p><p><strong>最强中文大模型来了</strong></p><p style=\"text-align: justify;\">历经一年多追赶,国产大模型终于进入大模型核心竞技场,可与国外一流大模型企业一较高下。</p><p style=\"text-align: justify;\">从现实情况来看,大模型技术爆发一年多,行业竞争态势激烈而又多变。通义千问走了一条最“卷”的路,自2023年4月问世以来,始终专注于基础模型的技术研发,从初代模型升级至2.5版本。</p><p style=\"text-align: justify;\">相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%,中文能力更是持续领先业界。根据权威基准Open Compass的测评结果,通义千问2.5得分追平GPT-4-Turbo,是该基准首次录得国产大模型取得如此出色的成绩。</p><p class=\"t-img-caption\"><img alt=\"\" src=\"https://static.tigerbbs.com/e0b0219ddd1cd838025790ede07524d5\" tg-height=\"830\" tg-width=\"1080\" title=\"\"/></p><p style=\"text-align: justify;\">同时,通义还发布了1100亿参数开源模型Qwen1.5-110B,该模型在MMLU、Theorem QA、GPQA等基准测评中超越了Meta的Llama-3-70B模型;在Hugging Face推出的开源大模型排行榜Open LLM Leaderboard上,Qwen1.5-110B冲上榜首,再度证明通义开源系列业界竞争力领先。</p><p style=\"text-align: justify;\">此外,通义在多模态模型和专有能力模型也具备业界顶尖影响力。在多个多模态标准测试中,通义千问视觉理解模型Qwen-VL-Max得分超越Gemini Ultra和GPT-4V,这款模型已在多家企业落地应用;通义千问代码大模型Code Qwen1.5-7B则是Hugging Face代码模型榜单Big Code的头号选手,这款模型是国内用户规模第一的智能编码助手通义灵码的底座。</p><p style=\"text-align: justify;\">从曾经的追赶者到如今的并行者,一年间,通义发展出了业界领先的文生图、智能编码、文档解析、音视频理解等能力,企业客户和开发者可以通过API调用、模型下载等方式接入通义,个人用户可从APP、官网和小程序免费使用通义。</p><p><strong>始终坚定开源路线</strong></p><p style=\"text-align: justify;\">据了解,通义是大模型开源最积极的推动者和实践者。去年8月,通义宣布加入开源行列,随之启动马不停蹄的开源狂飙,沿着“全模态、全尺寸”开源的路线,陆续推出十多款开源模型。目前,通义开源模型下载量已经超过700万。</p><p style=\"text-align: justify;\">“开发者的反馈和开源社区的生态支持,是通义大模型技术进步的重要助力。”阿里云CTO周靖人透露,未来通义大模型还会持续开源。</p><p class=\"t-img-caption\"><img alt=\"阿里云首席技术官周靖人宣布重磅发布\" src=\"https://static.tigerbbs.com/8d299ab5dd96c94331037a28bf647b63\" tg-height=\"583\" tg-width=\"1080\" title=\"阿里云首席技术官周靖人宣布重磅发布\"/><span>阿里云首席技术官周靖人宣布重磅发布</span></p><p style=\"text-align: justify;\">从现实情况来看,大模型的训练和迭代成本极高,绝大部分的AI开发者和中小企业都无法负担。Meta、阿里云等推动的大模型开源风潮,让开发者们不必从头训练模型,还把模型选型的主动权交给了开发者,大大加速了大模型的应用落地进程。</p><p style=\"text-align: justify;\">为顺应不同场景用户的需求,通义推出参数规模横跨5亿到1100亿的八款大语言模型,小尺寸模型如0.5B、1.8B、4B、7B、14B,可便捷地在手机、PC等端侧设备部署;大尺寸模型如72B、110B,能支持企业级和科研级的应用;中等尺寸如32B,试图在性能、效率和内存占用之间找到最具性价比的平衡点。此外,通义还开源了视觉理解模型Qwen-VL、音频理解模型Qwen-Audio、代码模型CodeQwen1.5-7B、混合专家模型Qwen1.5-MoE。</p><p style=\"text-align: justify;\">通义72B、110B开源模型都曾登顶OpenLLMLeaderboard榜首。在开放研究机构LMSYSOrg推出的基准测试平台Chatbot Arena上,通义72B模型多次进入“盲测”结果全球Top 10,创造了国产大模型的先例。</p><p style=\"text-align: justify;\">根据最新数据,通义通过阿里云服务企业超过9万、通过钉钉服务企业超过220万,目前已应用于PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等行业。</p><p style=\"text-align: justify;\">就在5月9日,小米旗下的智能助手“小爱同学”宣布与阿里云通义大模型达成合作,强化其在图片生成、图片理解等方面的多模态AI生成能力;新浪、众安保险、完美世界游戏、中国一汽等企业也宣布接入通义大模型,将大模型应用于社交媒体、保险、游戏等领域。</p>\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/15387486eaa7c5fd687d07c20c192913","relate_stocks":{"89988":"阿里巴巴-WR","IE00B0JY6N72.USD":"PINEBRIDGE GLOBAL EMERGING MARKETS FOCUS EQUITY \"A\" (USD) ACC","LU0293314216.USD":"ALLIANZ GEM EQUITY HIGH DIVIDEND \"A\" (USD) ACC","LU0348735423.USD":"ALLIANZ HONG KONG EQUITY \"A\" (USD) INC","IE0032431581.USD":"PINEBRIDGE GREATER CHINA EQUITY \"A\" (USD) ACC","BK1517":"云办公","LU0228659784.USD":"施罗德金砖四国基金","BK1608":"元宇宙概念","IE0034224299.USD":"PINEBRIDGE ASIA EX JAPAN EQUITY \"A\" (USD) ACC","LU0320764243.SGD":"FTIF - Templeton Emerging Markets A Acc SGD","IE00BMPRXR70.SGD":"Neuberger Berman 5G Connectivity A Acc SGD-H","LU0348805143.USD":"ALLIANZ ENHANCED ALL CHINA EQUITY \"A\" (USD) INC","LU0048597586.USD":"富达亚洲焦点A","LU0211977185.USD":"EASTSPRING INVESTMENTS GREATER CHINA EQUITY \"A\" ACC","LU0163747925.USD":"EASTSPRING INVESTMENTS ASIAN EQUITY A ACC","LU0348825331.USD":"ALLIANZ CHINA EQUITY \"A\" (USD) INC","LU0348783233.USD":"安联东方收入型 CI A Dis美元","LU0128522157.USD":"TEMPLETON ASIAN GROWTH \"A\" ACC","BK1142":"互联网与直销零售","LU0384037296.USD":"ALLIANZ ASIAN MULTI INCOME PLUS \"AT\" (USD) ACC","LU0348788117.USD":"ALLIANZ EMERGING ASIA EQUITY \"A\" (USD) INC","LU0084288322.USD":"Natixis Asia Equity RD USD","BK1588":"回港中概股","LU0054450605.USD":"HSBC GIF GLOBAL EMERGING MARKTS EQ \"AD\" INC","09988":"阿里巴巴-W","LU0370786039.SGD":"Fidelity Greater China A-SGD","LU0287142896.SGD":"Fidelity China Focus A-SGD","LU0051755006.USD":"摩根大通中国A (dist)","IE00B3M56506.USD":"NEUBERGER BERMAN EMERGING MARKETS EQUITY \"A\" (USD) ACC","LU0326950275.SGD":"Schroder ISF China Opportunities A Acc SGD-H","IE00B543WZ88.USD":"NEUBERGER BERMAN CHINA EQUITY \"A\" (USD) ACC","LU0181495838.USD":"施罗德新兴亚洲A Acc","LU0251144936.SGD":"Fidelity Sustainable Asia Equity A-SGD","LU0417516571.SGD":"Allianz Oriental Income Cl AT Acc SGD","LU0130103400.USD":"Natixis Harris Associates Global Equity RA USD","LU0029874905.USD":"TEMPLETON EMERGING MARKETS \"A\" INC","LU0043850808.USD":"HSBC GIF ASIA EX JAPAN EQUITY \"AD\" INC","LU0052750758.USD":"富兰克林中国基金A Acc","LU0320764599.SGD":"FTIF - Templeton China A Acc SGD","BK1521":"挪威政府全球养老基金持仓","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","LU0173614495.USD":"富达中国焦点A","LU0128522744.USD":"TEMPLETON EMERGING MARKETS \"A\" ACC","BK1586":"云计算","LU0359201612.USD":"贝莱德中国基金A2","LU0106959298.USD":"UBS (LUX) EQUITY FUND - EMERGING MARKETS SUSTAINABLE LEADERS (USD) \"P\" (USD) ACC","LU0214875030.USD":"HSBC GIF BRIC EQUITY \"M2C\" (USD) ACC","LU0048580855.USD":"富达大中华区A","BK1591":"就地过年概念","LU0320764755.SGD":"FTIF - Templeton Asian Growth A Acc SGD"},"source_url":"http://finance.eastmoney.com/a/202405093071463146.html","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2434057582","content_text":"通义大模型发布一周年之际,迎来重要的历史性时刻!5月9日,阿里云召开峰会,正式发布通义千问2.5,模型性能全面赶超GPT-4-Turbo,成为“地表最强”中文大模型。同时,通义千问1100亿参数开源模型在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B,成为开源领域最强大模型。在峰会当日,原通义千问APP宣布更名为“通义APP”,将通义大模型全套能力集于一身,致力于成为“通情达义”的AI助手。最强中文大模型来了历经一年多追赶,国产大模型终于进入大模型核心竞技场,可与国外一流大模型企业一较高下。从现实情况来看,大模型技术爆发一年多,行业竞争态势激烈而又多变。通义千问走了一条最“卷”的路,自2023年4月问世以来,始终专注于基础模型的技术研发,从初代模型升级至2.5版本。相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%,中文能力更是持续领先业界。根据权威基准Open Compass的测评结果,通义千问2.5得分追平GPT-4-Turbo,是该基准首次录得国产大模型取得如此出色的成绩。同时,通义还发布了1100亿参数开源模型Qwen1.5-110B,该模型在MMLU、Theorem QA、GPQA等基准测评中超越了Meta的Llama-3-70B模型;在Hugging Face推出的开源大模型排行榜Open LLM Leaderboard上,Qwen1.5-110B冲上榜首,再度证明通义开源系列业界竞争力领先。此外,通义在多模态模型和专有能力模型也具备业界顶尖影响力。在多个多模态标准测试中,通义千问视觉理解模型Qwen-VL-Max得分超越Gemini Ultra和GPT-4V,这款模型已在多家企业落地应用;通义千问代码大模型Code Qwen1.5-7B则是Hugging Face代码模型榜单Big Code的头号选手,这款模型是国内用户规模第一的智能编码助手通义灵码的底座。从曾经的追赶者到如今的并行者,一年间,通义发展出了业界领先的文生图、智能编码、文档解析、音视频理解等能力,企业客户和开发者可以通过API调用、模型下载等方式接入通义,个人用户可从APP、官网和小程序免费使用通义。始终坚定开源路线据了解,通义是大模型开源最积极的推动者和实践者。去年8月,通义宣布加入开源行列,随之启动马不停蹄的开源狂飙,沿着“全模态、全尺寸”开源的路线,陆续推出十多款开源模型。目前,通义开源模型下载量已经超过700万。“开发者的反馈和开源社区的生态支持,是通义大模型技术进步的重要助力。”阿里云CTO周靖人透露,未来通义大模型还会持续开源。阿里云首席技术官周靖人宣布重磅发布从现实情况来看,大模型的训练和迭代成本极高,绝大部分的AI开发者和中小企业都无法负担。Meta、阿里云等推动的大模型开源风潮,让开发者们不必从头训练模型,还把模型选型的主动权交给了开发者,大大加速了大模型的应用落地进程。为顺应不同场景用户的需求,通义推出参数规模横跨5亿到1100亿的八款大语言模型,小尺寸模型如0.5B、1.8B、4B、7B、14B,可便捷地在手机、PC等端侧设备部署;大尺寸模型如72B、110B,能支持企业级和科研级的应用;中等尺寸如32B,试图在性能、效率和内存占用之间找到最具性价比的平衡点。此外,通义还开源了视觉理解模型Qwen-VL、音频理解模型Qwen-Audio、代码模型CodeQwen1.5-7B、混合专家模型Qwen1.5-MoE。通义72B、110B开源模型都曾登顶OpenLLMLeaderboard榜首。在开放研究机构LMSYSOrg推出的基准测试平台Chatbot Arena上,通义72B模型多次进入“盲测”结果全球Top 10,创造了国产大模型的先例。根据最新数据,通义通过阿里云服务企业超过9万、通过钉钉服务企业超过220万,目前已应用于PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等行业。就在5月9日,小米旗下的智能助手“小爱同学”宣布与阿里云通义大模型达成合作,强化其在图片生成、图片理解等方面的多模态AI生成能力;新浪、众安保险、完美世界游戏、中国一汽等企业也宣布接入通义大模型,将大模型应用于社交媒体、保险、游戏等领域。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1504,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":119,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/304027490308296"}
精彩评论