甲子光年
甲子光年认证媒体
老虎认证: 中国科技产业精品智库
IP属地:未知
5关注
607粉丝
0主题
0勋章
avatar甲子光年
07-24 09:51

开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年

扎克伯格誓要把开源进行到底。作者|苏霍伊编辑|赵健Llama 3.1终于来了。美国当地时间7月23日,Meta正式发布Llama 3.1。其包含8B、70B 和405B三个规模,最大上下文提升到了128k。Llama目前开源领域中用户最多、性能最强的大型模型系列之一。本次Llama 3.1的要点有:1.共有8B、70B及405B三种版本,其中405B版本是目前最大的开源模型之一;2.该模型拥有4050亿参数,在性能上超越了现有的顶级AI模型;3.模型引入了更长的上下文窗口(最长可达128K tokens),能够处理更复杂的任务和对话;4.支持多语言输入和输出,增强了模型的通用性和适用范围;5.提高了推理能力,特别是在解决复杂数学问题和即时生成内容方面表现突出。Meta在官方博客中写道:“时至今日,开源大语言模型性能落后于闭源模型仍是常态。但现在,我们正在迎来一个开源引领的新时代。我们公开发布Meta Llama 3.1 405B是世界上最大、功能最强大的开源基础模型。迄今为止,所有Llama版本的累计下载次数已超过3亿,而这只是一个开始。”开源与闭源的争论一直是技术领域的热点话题。开源软件更为透明性和灵活性,允许全球开发者共同审查、修改和改进代码,从而推动了技术的快速创新和进步。而闭源模型通常由单一公司或组织开发和维护,它们能提供专业的支持和服务,确保软件的安全性和稳定性。但这种模式也限制了用户的控制权和自定义能力。此前,一直是闭源模型略胜一筹。直到Llama 3.1的发布,在持续激烈的开源与闭源之争写下浓墨重彩的一笔:开源模型终于可与闭源模型巅峰一战了。根据Meta提供的基准测试数据,最受关注的405B版本,从性能上已经可与GPT-4和Claude 3相媲美。其中Human Evaluation主要用于评估模型在理解和生成代码、解决抽象逻辑问题方面的能力。在与其他大型模型
开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年
avatar甲子光年
07-23 13:00

跨境电商的AI奇点正在到来|甲子光年

阿里国际用AI重写了1亿款商品的标题和详情页。作者|王艺‍‍‍编辑|栗子‍‍2023年是跨境电商在海外狂飙突进的一年。中国电商“出海四小龙”(SHEIN、速卖通AliExpress、Temu和TikTok Shop)开启快马加鞭的扩张时代,在全球市场和海外对手展开激烈竞争。在各大电商平台纷纷推出的“全托管(商家只负责供货,跨境电商平台提供运营、物流、售后等服务)”和“半托管”(平台负责卖货,但商家自己承担国际干线物流、到达目的地国后的配送费用)模式下,商家的销量实现了大幅增长。但除了依靠中国制造的强大供应链和极致性价比之外,还能如何实现长期可持续的增长,在全球与亚马逊等海外巨头竞争呢?点“科技树”或许是唯一的解法。生成式AI时代到来之后,从ChatGPT到Sora,AI工具的快速迭代,也给跨境电商行业带来了更多可能性:不仅80%以上的独立站卖家正在探索和利用AI技术来降本增效、提升用户体验,而且各大跨境电商平台从2023年下半年开始也在相继布局AI。比如亚马逊云科技去年推出了名为Amazon Bedrock的人工智能服务,允许客户通过Anthropic、Stability AI和亚马逊的现有模型构建GenAI应用程序;Shein将AI用于预测潮流趋势和电商图片生成;Shopee、Lazada、TikTokShop、Shopify等也在相继布局AI电商。更能证明AI在电商领域商业价值的案例是阿里国际数字商业集团(下文简称“阿里国际”)。在阿里巴巴2024年一季度的财报中,阿里国际零售业务营收222.78亿元。同比增长56%,是本季度增长幅度最大的业务。阿里国际这匹“黑马”并不是最近才冒头的。在2022年前三季度,阿里国际零售业务增长还处于个位数,一度甚至因为疫情小幅下滑震荡。自2023年第二季度(自然年自然季)以来,国际零售就开始狂飙——不仅保持两位数同比高增长,且增速越发陡
跨境电商的AI奇点正在到来|甲子光年

《2024AI体验营销行业研究报告》——AI营销:从新一代营销理论创新开始|甲子光年

AI营销:从新一代营销理论创新开始。随着体验经济时代和智能新世代的到来,原有传统营销理论体系和初始的体验营销理论已经无法满足日益增长的数字化水平和企业需求,迫切需要构建新一代营销理论体系,以引领和策划数智时代的用户营销活动。结合当下的营销趋势与诉求,甲子光年智库特此推出《AI体验营销行业研究报告》,该报告深入梳理了体验营销理论的演进历程,以及数字技术带来的创新变革;提出创新的营销理论体系,明确了AI体验营销方法论;并从技术革新、模式创新、互动玩法等多个维度,分析了AI体验营销带来的营销创新;此外,报告精心选取了行业内的代表性企业及典型案例,可为企业开展体验经济时代的营销数字化转型提供参考。报告内容将围绕以下几个核心问题展开深入探讨:在体验经济时代,生产与消费行为呈现出哪些新趋势?哪些关键因素推动了AI体验营销理论的发展,它与传统营销理论相比具有哪些独特优势? AI体验营销的生态系统是如何构建的,当前市场上的主要参与者和竞争格局是怎样的?AI体验营销如何影响营销流程,带来了哪些创新的营销策略?在哪些重点行业和场景中,AI体验营销的应用尤为突出?AI体验营销当前的市场规模及其未来的增长潜力如何?在产品技术、营销人才等方面,将出现哪些新的发展动向?关注公众号“甲子光年”,后台回复“ 2024AI体验营销”,获得高清版完整PDF。或者点击文末“阅读原文”,进入甲子光年官网下载。
《2024AI体验营销行业研究报告》——AI营销:从新一代营销理论创新开始|甲子光年

这一次,国产光计算芯片走到了商业化的临界点|甲子光年

光计算芯片行业的水温,正在发生变化。作者|八度‍‍编辑|王博“集成光路将是半导体领域60年一遇的‘换道超车’。”去年底,在2023全球硬科技创新大会上发布的《光子时代:光子产业发展白皮书》前言的最后一段,有着这样一句话。光计算芯片在算力、数据传输上的优势毋庸置疑,国内团队的研究成果也时常见诸报端,但一提到规模化商用,不少人仍心存疑虑。2023年,一位从事微纳光子器件科研的研究生在知乎上发帖讨论光计算芯片相关问题时就直白地说:“既然没有商用,肯定是还有很大问题的。”那么,光计算芯片从论文里走出来了吗?矩阵规模(算力密度)和单节点光辨识度(算力精度)是衡量光计算芯片性能的关键指标,业内公认的达到商用标准的矩阵规模是128×128,2021年全球范围内有两家企业完成了64×64的光计算芯片流片,此后三年内这个瓶颈一直没有被突破,有的企业甚至转战了其它赛道。而在近期举行的2024世界人工智能大会(WAIC)期间,“甲子光年”了解到,国内光计算芯片公司光本位科技已完成首颗算力密度和算力精度均达到商用标准的光计算芯片流片,这颗芯片的矩阵规模为128×128,峰值算力超1700TOPS。光本位科技研发的矩阵规模为128×128的光计算芯片,图片来源:光本位科技“我们目前对标的就是英伟达A100,”光本位科技联合创始人程唐盛告诉“甲子光年”,“128×128芯片将被制作成板卡,其最终形成的算力将与英伟达的电子芯片产品具有可比性。同时,我们的初代产品功耗大约是它们的十分之一到十五分之一。此外,在延时方面,光计算芯片也会有数量级的降低。”128×128的矩阵规模,意味着国产光计算芯片离产业化更近一步,而不仅仅是“停留在纸面上”“只生活在实验室里”。光本位科技创始人熊胤江表示,公司正在进行128×128光计算板卡调试,预计将于2025年内推出商业化光计算板卡产品,用更高的能效比、更大的算力赋能大
这一次,国产光计算芯片走到了商业化的临界点|甲子光年

如何打破货车“不超载不赚钱”的怪圈?|甲子光年

一件似乎与你我无关,但是的确与你我有关的事情正在发生。作者|王艺编辑|王博用9.6米长的重型厢式货车,运一单重量为17吨的冷冻食品。从山东省汶上县出发,到山东省诸城市卸货,走高速,路程约为350公里。按照每吨货物运费200元计算,拉这一单,货主给司机何师傅的报价是3400元。成本呢?货运有两项大额刚性支出:路桥费和燃油费。高速通行费每公里1.7元,整体约为600元;9.6米的满载厢货,百公里烧42升柴油,按山东省一升柴油7.6元的价格计算,燃油成本约为1140元。也就是说,运这一趟货物的刚性支出超过1700元。如果再加上空车返程,那么这一趟货送下来,何师傅几乎赚不到什么钱。一直以来,燃油成本都是困扰货运司机最大的问题之一。也因此,为了跑一趟车能赚更多的钱,超载现象时有发生,“不超载不赚钱”已是“行业潜规则”。即使有些司机为了省钱,将自己的燃油车换成了新能源货车,但是最终发现并没有省多少钱——以城市轻型货运车为例,传统车型的燃油成本在单月4000元左右,但是加油方便、续航持久,多拉几单很容易赚回来;但切换到新能源货车以后,尽管充电成本降低到了1500元左右,由于充电桩不是随处都在,补能不便,减少了接更多订单的机会。也因此,新能源在商用车领域的渗透率远远低于乘用车。数据可以说明这一点:从2019-2021年,整个新能源商用车的渗透率一直在3%左右的水平徘徊,尽管2022年达到了9%、2023年达到了10%,但是相比于乘用车2022年27%、2023年34%的渗透率,仍然远远不足。可能有人会说:“商用车和我们关系大吗?”那些穿梭在城市大街小巷的物流货运车、清晨的环卫洒水车、旅游景区旁停放的大巴车、高速公路上疾驰的重型卡车等都是商用车。当然,被媒体曝光后冲上热搜的“卸完煤制油直接装运食用大豆油”的罐车也是商用车,而罐车司机“在换货运输过程中不清洗罐体”的原因还是——节约成本。有关部
如何打破货车“不超载不赚钱”的怪圈?|甲子光年

李彦宏再谈开源:开源模型是智商税,永远应该选择闭源模型|甲子光年

“今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”在2024世界人工智能大会(WAIC 2024)期间,百度创始人、董事长兼首席执行官李彦宏,与第一财经传媒集团总编辑杨宇东和《硅谷101》创始人陈茜,进行了一场圆桌访谈。在一个小时的对话中,李彦宏对开源闭源、大模型价格战、智能体、超级应用、AGI等业界热点问题,表达了自己的看法。李彦宏认为,开源其实是一种智商税。“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”谈及“AI超级应用什么时候出现”时,李彦宏表示,“不是说一定在等待一个超级应用的出现”。他认为,在基础模型之上,应该能够诞生数以百万计的各种各样的应用。“如果仅仅是从0到1,你可能会希望出现某几个Super APP,也就是几个公司从中受益。但是今天,几乎各行各业所有的公司,被大模型加持之后,它都能受益。这种影响力,对于整个社会、对于人类来说,无疑是更大的。”    李彦宏称,智能体代表着AI时代的未来趋势。“智能体正在爆发,只是现在基数还比较小,大家的体感没有那么强烈。”基础模型需要靠应用才能显现出价值,智能体是一个几乎“放之四海而皆准”的基于大模型的应用,由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。“让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Super APP。”以下为访谈精编全文:1.超级应用什么时候出现?基础模型之上将诞生数以百万计的应用问:由ChatGPT掀起的这个热潮已经持续一年多了,你也曾表达,接下来超级应用什么时候出现?我们看到国内面向C端的大模型产品形态,看起来都差不多,都是搜索框+问答这种模式,你怎么看?
李彦宏再谈开源:开源模型是智商税,永远应该选择闭源模型|甲子光年

“火热”的WAIC:25款人形机器人,与数不清的大模型|甲子光年

最“热”的一届WAIC。作者|赵健 八度上海正午40度的高温,没能阻挡大家参加世界人工智能大会(WAIC)的热情。在WAIC开幕的第一个下午,上海世博中心几乎每一个论坛都挤满了观众。无问芯穹的AI基础设施论坛现场在会场外,WAIC的门票一票难求,不少人懊悔错过了早点买票的时机。根据官方数据,本届WAIC有500余家企业确认参展,市外企业和国际企业占比超50%,展品数量已超1500项。今年的WAIC有两大看点,一是上演了现实版的“百模大战”。去年很多AI公司还在观望,甚至还没有诞生。而在WAIC上你可以一口气看完主流市场上99%的大模型——月之暗面、零一万物等头部厂商没有参加。除此之外,Minimax、百川智能、智谱AI、阶跃星辰等“大模型新势力”,以及百度、阿里巴巴、腾讯、华为、商汤科技、科大讯飞、中国移动、中国联通、星环科技等产业头部玩家悉数亮相。其中,MiniMax创始人、CEO闫俊杰还在现场向“甲子光年”等媒体透露,MiniMax将在下个月发布AI视频生成产品。不过,大模型看多了可能也会审美疲劳。有不少观众现场表示,每一家的产品看起来“大差不差”。第二大看点非人形机器人与具身智能莫属。本届大会展览重点打造人形机器人专区,展出人形机器人25款,现场发布全球首个全尺寸开源公版人形机器人青龙,以及国内首个全尺寸人形机器人开源社区。特斯拉首发Optimus二代,宇树科技展示国内首款实现奔跑功能的全尺寸通用人形机器人H1。傅利叶、达闼、云深处科技等企业也带来总计超20款智能机器人。现场还有海外各地的采购团,比如巴西、日本等等。采购团的热情很高,看到新奇的机器人都纷纷拿出手机拍照。今年的WAIC,很可能是“最火热”的一届,无论是物理意义上,还是产业意义上。1.具身智能成大热门,人形机器人“竞相比武”深入到WAIC的H1展位,各机器人公司都开足马力,展现自家王牌产品,真正秀出了最硬
“火热”的WAIC:25款人形机器人,与数不清的大模型|甲子光年

今天,阶跃星辰正式发布万亿MoE大模型|甲子光年

国产大模型跑出了“阶跃速度”。作者|赵健今年的世界人工智能大会(WAIC),“大模型”含量极高,既有已发布模型的集中展示,也有大模型的首发亮相。其中,阶跃星辰是模型更新迭代最大的大模型公司之一。这家在今年3月才浮出水面的国产大模型公司,一口气发布了三款大模型,包括:Step-2万亿MoE语言大模型正式版、 Step-1.5V多模态大模型、Step-1X图像生成大模型。阶跃星辰的Step系列通用大模型荣获WAIC 2024 SAIL之星奖项。同时,阶跃星辰还与上影合作,在WAIC现场发布了《大闹天宫》AI 互动体验——“测测你是哪路神仙”。如此一来,阶跃星辰成为国内极少数同时布局大语言模型与多模态大模型,并且模型产品已经正式发布的AI公司,多模态理解和生成的统一布局,也被包括阶跃星辰在内的很多AI从业者看作是通往AGI的必经之路。从公司亮相至今短短100多天的时间里,阶跃星辰跑出了“阶跃速度”,迅速跻身于国产大模型的第一梯队。1.万亿模型俱乐部阶跃星辰本次发布的万亿参数大模型是一个重头戏,放眼全球也屈指可数。今年3月阶跃星辰首次亮相的Step-1是一个千亿参数的稠密(Dense)模型,而本次发布了Step-2则是一个万亿参数的MoE模型。“稠密”与“MoE”是描述大模型参数的两种技术路径。稠密模型的参数量与实际运行参数是1:1的关系,在推理时输入的token会把所有参数都运行一遍;而MoE模型的实际运行参数只有总参数的1/4或者1/8,以此来提高推理的效率。关于两者的更细微的区别,不妨直接问一下阶跃星辰推出的对话助手产品“跃问”:今天,在Scaling Law的指导下,大模型的参数量越做越大已经是一个确定性的趋势。但是从千亿到万亿的跨越,到底应该采用稠密模型还是MoE模型?阶跃星辰CEO姜大昕认为,想把模型参数扩大到万亿的话,MoE几乎是一个必选项。就像做科研或者做工程,很多
今天,阶跃星辰正式发布万亿MoE大模型|甲子光年

2024自动驾驶行业研究报告:“端到端”渐行渐近|甲子光年智库

算力、数据与可解释性,是端到端模型上车的主要挑战。在探索更高级别自动驾驶的征途中,以GPT为代表的AI大模型技术以其快速创新和先进的概念架构,启发了广大自动驾驶领域的从业者,并正在重塑自动驾驶系统的研发范式。全球自动驾驶行业的版图正在迅速响应这一变化,随着特斯拉、Wayve、元戎启行、商汤科技等公司在端到端自动驾驶领域的突破性进展,行业正目睹着一场技术的革命。这些公司不仅在技术研发上取得了显著成就,更在商业化应用上迈出了坚实的第一步,引领着行业向更高级别的智能化发展。特别是智能驾驶的行业标杆特斯拉,FSD V12系统的全面推出,标志着端到端自动驾驶技术在量产车型上的应用已成为现实。这一系统通过深度学习模型,直接从原始传感器数据中提取信息,实现从感知到控制的无缝连接,极大地提升了自动驾驶的效率和安全性。而像Wayve这样的AI初创公司,凭借其端到端机器学习技术与生成式世界模型的理念,正在快速扩张在英国和欧洲的业务版图,展现了端到端技术在复杂城市环境中的适应性和可靠性。在国内,华为、小鹏、商汤科技、元戎启行等企业也积极跟进,纷纷推出了面向量产的端到端自动驾驶解决方案和车型。这些方案不仅在技术层面上展现了强大的竞争力,更在卓越的实际道路表现中证明了其有效性。随着这些技术的不断成熟和完善,我们有理由相信,端到端这一技术路线将为自动驾驶领域带来更加广阔的应用前景。基于此,甲子光年智库分析师撰写了《2024自动驾驶行业研究报告:“端到端”渐行渐近》,在这股智能化的浪潮中,对端到端自动驾驶技术进行剖析,期望为自动驾驶领域的研究者、决策者、观察者及广大爱好者提供一份全面深入的参考资料。期待与您一同见证端到端自动驾驶技术的无限可能,探索智能出行的未来篇章。报告主要内容:智能化已成为汽车消费者购车时的关键考量因素之一,随着电动化和智能化的快速发展,消费者对自动驾驶技术、智能座舱等高端智能化功能
2024自动驾驶行业研究报告:“端到端”渐行渐近|甲子光年智库

什么才是好用的大模型?|甲子光年

速度更快、效果更好的大模型,更扎实的技术。作者|伍月‍‍编辑|栗子随着大模型在千行百业的逐步落地,中国基础大模型正直面来自用户端的诸多拷问。近日,随着OpenAI宣布禁止中国用户使用其API,更多的国产大模型都在提供替代方案和优惠措施,来吸引和支持开发者进行用户迁移。这既是一次挑战,也是一次全新的机会。一方面,在技术差距面前,只有更强的基础大模型才更有机会从这次变局中赢得先机;另一方面,更多的用户反馈将为大模型提供更多的“养分”,促进大模型的持续迭代。这意味着,大模型的头部效应将越来越明显。越领先的模型将吸引越多用户和资源,进一步巩固其市场地位。作为中国最早涉猎大语言模型的公司,百度一方面在推出“搬家服务”,吸引用户迁移至百度千帆大模型平台。另一方面,百度也在迭代自身的基础大模型,直面这场愈演愈烈的市场竞争。6月28日,百度文心大模型再次完成了最新的进化升级。在WAVE SUMMIT深度学习开发者大会2024上,百度正式发布大模型的新升级版本——文心大模型4.0 Turbo。百度发布文心大模型4.0 Turbo同时,百度也正式公开文心一言最新数据。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰透露:“目前,文心一言累计用户规模已达3亿,日调用次数也达到了5亿。”亿级的的大模型产品背后,百度正在推动大模型技术通用性和能力全面性的持续进步。毫无疑问,在这个转折点进行全面升级,无疑为百度文心大模型在当下的大模型竞争局势添了一份更有分量的筹码。1.好用的大模型对于用户而言,在选择用哪个大模型这道题面前,最大的考量因子就是“好用”。效果和速度是基础大模型比拼的两大要素。一方面,大模型需要具备高准确性和可靠性,不仅在自然语言理解、生成、逻辑推理等基础能力上表现优秀,还需要能够处理多样化的任务并提供高质量的输出,展示在特定领域的专业知识。另一方面,模型响应时间要快,能够在短
什么才是好用的大模型?|甲子光年

文本、多模态与意识:谁来决定AGI?|甲子光年

“万博士,快手什么时候开源可灵,让我们白嫖?”作者|刘杨楠‍‍编辑|赵健AGI是什么?今天再看这个问题,依然满眼混沌,无从拆解。AGI一词,是由DeepMind联合创始人戴米斯·哈萨比斯在2010年提出的概念,他将AGI定义为“应该能够完成人类可以完成的几乎所有认知任务的系统”。去年,DeepMind发布论文,提出了AGI的五个分级:OpenAI对AGI的定义是“在最具经济价值的工作中表现优于人类的高度自主系统”。OpenAI的使命是确保AGI造福全人类。然而,近期一位谷歌软件工程师却表示,OpenAI“凭一己之力改变了游戏规则”,同时也使AGI的发展推迟了5-10年。今时今刻,AGI近乎成为一种人类世界的新兴“宗教”,身处其中的人们各有各的信仰,也各有各的挣扎。有趣的是,尽管不同的人对AGI有不同的定义,但每个人都认为AGI是未来。那么,“未来”又是什么?在近期举办的2024智源大会上,智源学者、昆仑万维2050全球研究院院长颜水成,百川技术联合创始人谢剑,零一万物联合创始人黄文灏,快手视觉生成与互动中心负责人万鹏飞,与甲子光年创始人及CEO张一甲展开了一场观点交锋。这是一场没有不限主题、不限时长的圆桌。一个多小时的时间里,五位嘉宾围绕端侧智能、多模态模型、AGI的定义以及前段时间沸沸扬扬的价格战展开讨论,并在论坛结束后和现场观众展开一番有趣互动。纵然AGI的命题无比恢弘,今时今刻业内外关于AGI的想象又略显混沌,但在场观众的提问却极其“具体”:“万博士,快手什么时候开源可灵,让我们白嫖?”1. 未来,端上智能是非常重要的张一甲:今天的配置非常有意思,有大厂,有创业公司,有产业派,听了今天所有的分享,大家有哪些新收获?黄文灏:大部分的观点都已经形成行业共识,比如对Scaling Law和数据的认知。谢剑:我基本也是赞同黄文灏的,我的感受是,去年国内的大模型技术生态没有那么
文本、多模态与意识:谁来决定AGI?|甲子光年

《2024年中国AIGC行业应用价值研究报告报告》——千行百业All in AI,重构数字经济的生产模式|甲子光年智库

希望AIGC去解决旧时代的“老问题” ,创造属于当下的“新需求”。大模型的发展开启了AIGC时代,没有大模型的AI已经是上一代的AI,缺乏竞争力的AI。技术是AI每次革命性发展的起点,商业应用是发展的加速器,AI的持久发展看商业落地。2024可以被称为AIGC应用元年。模型爆发后迎来商业加速,技术进步与应用实践之间的相互作用,形成了一种强大的飞轮效应。随着AI技术的不断深化和完善,越来越多的行业开始探索和应用AI解决方案,从而推动了技术的进一步创新和优化。这种双向促进的关系不仅加速了AI技术的商业化步伐,也为各行各业带来了效率提升和价值创造的新机遇。因此甲子光年于2024年6月推出《2024年中国AIGC行业应用价值研究报告》,探讨AIGC的价值与产品力,对各行业、各场景对于AIGC技术的需求进行调研及梳理,展示近期的突破及商业实践范式,对未来行业的趋势进行研判。‍‍甲子光年智库根据部分上市企业公开信息,及算法备案资料整理1000+AIGC相关企业清单。关注公众号“甲子光年”,后台回复“2024AIGC行业应用”,或点击文末“阅读原文”,进入甲子光年官网下载完整版报告即可查看。END.
《2024年中国AIGC行业应用价值研究报告报告》——千行百业All in AI,重构数字经济的生产模式|甲子光年智库

飞书加大“Partnership”生态投入,即将推出生态伙伴招募计划|甲子独家

做生态是软件公司的阳谋。作者|赵健“甲子光年”独家获悉,飞书今年提高了生态的优先级,正在加大对“Partnership”生态伙伴关系的投入。飞书核心要解决如何让生态伙伴更好地在飞书上赚到钱的问题,并且定下了一个目标:让飞书生态伙伴今年的GMV提高一个数量级。飞书近期将会推出一个生态招募计划,招募优质的生态伙伴加入飞书生态。飞书会向生态伙伴开放很多商业资源,包括独有的核心大客户资源,与生态伙伴一起共创解决方案;以及销售渠道资源,为了提高生态伙伴收入,飞书提高了了销售人员的激励措施,鼓励销售人员向大客户推广生态伙伴的产品与解决方案。飞书做生态,是其业务布局的一个重要拓展方向。在过去,外界普遍认为,飞书的“自研”远大于“生态”。飞书原本是字节跳动内部协同工具,在2020年面向市场发布,其云文档、多维表格等产品在互联网等“先进”行业获得了很好的口碑。为了做出更好用的产品——这也符合字节跳动做产品的基因,飞书一开始把更多资源投入到了自研上,陆续推出了“飞书Office”——包括云文档、多维表格、飞书会议等,“飞书People”——飞书人事、飞书绩效、飞书招聘等,“业务工具”——飞书集成平台、飞书应用引擎、飞书项目等。但飞书这种“全家桶”般的产品扩张客观上给各行各业的ISV(独立软件开发商)带来了一定“恐慌”。每一个ISV都会被问到一个问题:如果字节跳动(以及所有互联网大厂)要进入你的领域,你怎么办?针对产品边界的问题,飞书CEO谢欣在2023年3月的飞书春季发布会(当时发布了业务三件套——多维表格、飞书应用引擎与飞书集成平台)后的媒体群访环节做出了回应。当时谢欣表示:“飞书从最基础、最通用的聊天、文档、视频、会议,到可定制化的工作台,到业务三件套,整体都是偏通用的东西。过去飞书也推出过少量职能性的产品,比如飞书People,因为字节跳动对人才非常重视。接下来的规划中,飞书没有任何计划
飞书加大“Partnership”生态投入,即将推出生态伙伴招募计划|甲子独家

甲小姐对话凯文·凯利:关于AI,我从未写进书里的判断|甲子光年

意识让人类与众不同,但是我们也会把意识给AI。作者|甲小姐 八度‍‍‍编辑|田思奇“Slower than it looks(AI比看起来要慢),LLMs tend average(大语言模型趋于人类的平均智慧水平),Not replacing humans(AI并非要取代人类),New, not substitutions(AI在创造新品,不是替代品),Cloud first, then AI(先云,后AI),Must change your org(AI将重塑组织),Just beginning(一切才刚刚开始)……这七个预测不是完备的。你能给我们一些从未在其他地方提到过的猜测吗?”我问KK。摘掉眼镜的KK停顿了至少30秒,接着反问了我几个漫长的回合,直到突然打断了我。“那我的预测就来了。我的预测是,10年后,训练数据将不再重要(In 10 years now, training data won't be important)。”KK说。凯文·凯利(Kevin Kelly),被科技拥趸称为“KK”,以络腮胡子和斑白发丝成为一个时代符号。他写出《失控》、《科技想要什么》、《5000天后的世界》等书,被誉为“硅谷精神之父”,在30年前就预见到了云计算、虚拟现实、物联网等趋势。2024年6月16日,他来到苏州,参与苏州科技商学院和上海交通大学上海高级金融学院共同举办的科技大讲堂。上述对话发生在他讲课后会议室里的独家采访,原本20分钟的采访被他延续至将近一小时。本文甲小姐深度对话凯文·凯利,从近况谈到AI创新和人的本质。除了个别细节判断的不同 ,KK和“甲子光年”有类似的观点:AI改变世界的“进度条”才刚刚开始。1.近况:“那占据了我所有的时间”你必须有1000小时。可能我已经训练了800小时了,但还不到1000小时。甲小姐:新闻来来去去,全世界对AI的态度已经发生了很多变化
甲小姐对话凯文·凯利:关于AI,我从未写进书里的判断|甲子光年

MATLAB四十周年:一场数学的“矩阵革命”|甲子光年

一家公司如何保持40年的创新力?作者|赵健‍‍‍如果提到MathWorks这家公司,可能很多人都没听过。但若提起MATLAB,很多科研、工程领域的从业者,一定对它不陌生了。MATLAB之于数学软件,就如同Office之于办公软件。在全国大学生数学建模竞赛的国家奖队伍中,MATLAB的使用率几乎是100%。除了数学计算之外,MATLAB也被广泛应用于汽车、航空航天、通信、电子与半导体等工程领域。而MathWorks,就是MATLAB背后的软件公司,今年刚好是其成立的40周年。2018年出版的《规模》一书中有一组数据:幸存公司的数量在公开上市之后便迅速减少,不足5%的公司存活时间超过30年。死亡曲线显示,在50年内,死亡公司几乎占到了 100%, 其中50%在不到10年的时间里便告“死亡”。而MathWorks既没有上市,也没有衰亡,仍然保持着旺盛的活力。根据MathWorks披露的数据,2024年MathWorks在全球拥有超过6000名员工,其中30%位于美国以外;公司收入超过10亿美元,其中60%的收入来自美国以外;客户遍布190个国家和地区,超过10万个商业、政府和大学场所安装了其软件,在教育领域全球超过6500所学院和大学使用其软件,用户数超过500万。MathWorks每年都会在全球各地举办用户大会。今年5月在北京举办的MATLAB EXPO 2024中国用户大会现场,人头攒动、熙熙攘攘,不少人专门从外地赶来。MATLAB EXPO 2024中国用户大会现场,图片来源:“甲子光年”拍摄在用户大会当天,“甲子光年”专访了MathWorks全球副总裁Richard Rovner,着重探讨了公司的创新力与当前火热的生成式AI带给软件行业的影响。MathWorks到底做对了什么?为了更好地了解与理解这家公司,我们先从MathWorks的历史起点开始。1.MATLAB的起源M
MATLAB四十周年:一场数学的“矩阵革命”|甲子光年

CVPR 2024现场观察:随处可见的华人面孔和最热的三大研究领域|甲子光年

在凉爽的西雅图,屋子太小,CVPR太火。作者|苏霍伊‍编辑|王博发自美国西雅图美国当地时间6月19日,2024年IEEE国际计算机视觉与模式识别会议(CVPR)的最佳论文大奖揭晓。作为计算机视觉和模式识别领域的顶级会议,每一届的CVPR的最佳论文都会受到广泛关注。今年共有4篇论文获奖,其中2篇最佳论文,2篇最佳学生论文。其中,最佳论文是:《Generative Image Dynamics(生成图像动力学)》,由谷歌研究院发布;‍《Rich Human Feedback for Text-to-Image Generation(为文本到图像生成提供丰富的人类反馈)》,由加州大学圣地亚哥分校、谷歌研究院、南加州大学、剑桥大学及布兰迪斯大学合作发布。最佳学生论文是:《Mip-Splatting: Alias-free 3D Gaussian Splatting(Mip-Splatting:无混叠的3D高斯喷溅)》,由德国图宾根大学、图宾根人工智能中心、上海科技大学及捷克理工大学合作发布。《BioCLlP: A Vision Foundation Model for the Tree of Life(BioCLlP:生命之树的视觉基础模型)》,由美国俄亥俄州立大学、微软研究院、加州大学欧文分校、伦斯勒理工学院共同发布。CVPR火热的现场与西雅图凉爽的天气形成了鲜明对比,现场几乎所有活动都要排队。在6月17日到18日的活动中,不少场次座位满了,地板上也很快就坐满了人,西雅图会议中心的空地也有不少人席地而坐。CVPR 2024现场,“甲子光年”拍摄“甲子光年”从大会主办方了解到,本届CVPR共有来自76个国家和地区的超过12000人参加了线下会议,是CVPR历史上与会人数最多、规模最大的一届。其中,来自中国的参会者是美国之外最多的,共有1730人,包括中国内地1511人、中国香港13
CVPR 2024现场观察:随处可见的华人面孔和最热的三大研究领域|甲子光年

2024人工智能开源大模型生态研究|甲子光年智库

开源模型让每一家公司都具备成为AI公司的可能性。随着大型模型在各行各业的广泛应用,开源大模型生态正在快速发展。研究开源大模型不仅是人类不断接近人工通用智能(AGI)的重要探索之一,也是推动人工智能广泛应用的关键。开源大模型具有更广泛的用户覆盖面和更大的创新自由度,在用户体验、技术和产品迭代方面展现出强大的创新动力。随着基于开源大模型的产品数量不断增加,未来开源大模型有望成为AI普及应用的重要推动力,覆盖toC和toB产品等多个领域的各种场景。因此,甲子光年推出《2024年开源大模型生态研究相关报告》,研究人工智能与开源大模型的发展,对开源大模型生态进行梳理,探讨开源大模型领域的商业实践,并对未来行业趋势进行展望。关注公众号“甲子光年”,后台回复“开源大模型生态研究”即可获得高清版完整PDF,或点击文末“阅读原文”,进入甲子光年官网下载。‍‍END.
2024人工智能开源大模型生态研究|甲子光年智库

为了防止AI偷图,我在画里“下了毒”|甲子光年

“对我们充满恶意的,不是AI研究者,而是那些Pro AI但并不太懂的人”。作者|田思奇‍‍‍编辑|王博求救的信号来得很快。伴随着AI创作的画作《太空歌剧院》在2022年8月一举夺得艺术比赛冠军,AI绘画在ChatGPT发布前掀起当时最火爆的生成式AI浪潮。但金·范·德恩(Kim van deun)感到了前所未有的不安。作为一位艺术创作者,他自然不希望AI模型未获授权就拿走自己具有独特风格的作品去训练。但谁能来保护自己呢?他立刻想到了曾经反抗AI肆意抓取网络人脸数据的芝加哥大学研究团队。该团队曾在2017年推出Fawkes防护工具抵制非法人脸识别——这个名字来自戴着白色微笑面具的英国反叛者盖伊·福克斯(Guy Fawkes)。5年后,该团队的负责人之一单思雄(Shawn Shan)已经从芝加哥大学的计算机系本科生升为博士生。一直沉浸在AI安全与隐私领域的单思雄,在金·范·德恩的引领下,走入了艺术家的世界,感受到了他们对现状不满的呼声。为什么不开发一款可以从AI模型“手中”保护艺术作品的工具呢?2023年3月,单思雄所在团队开发的Glaze免费上线,迄今为止下载量超过260万。Glaze可以阻止AI模型学到艺术作品的特定风格。其名称的中文是“上釉”,相当于为画作添加一层保护膜。然而它引发了巨大的网络舆论反弹。邮件、Reddit和Twitter上充斥着批评的声音,称它会阻挡AI行业的创新,或者嘲讽它很快就会被破解。“如果他们的创新要牺牲别人的饭碗,那当然可以阻挡,”单思雄回应道,至于那些意料之中的恶意,“他们越愤怒,越在乎,意味着我们成功的概率就越高。”2024年4月,优化了效果和速度的Glaze 2.0及其网页版也顺利发布,但该实验室想做的还不仅如此。他们在今年2月就推出了另一个更具有攻击性的数据投毒(data poisoning)工具——Nightshade,它可诱导偷拿数据
为了防止AI偷图,我在画里“下了毒”|甲子光年

Runway发布Gen-3 Alpha:用100万美元拍500部电影的时代来了!|甲子光年

Runway CTO:将在“几天内”向付费用户提供。作者|王艺‍‍‍编辑|赵健‍文生视频领域又有新模型来卷了。北京时间6月17日晚九点,Runway发布了其最新的视频大模型Gen-3 Alpha,这是Runway即将推出的一系列模型中的第一个。Runway称,与Gen-2相比,Gen-3 Alpha在保真度、一致性和运动方面有了重大改进,并且朝着构建“通用世界模型”的道路上迈出了重要一步。Runway成立于2018年,是一家AI视频编辑软件提供商。很早之前,Runway在文生图领域就曾经大放异彩,和Stability AI一起训练了大名鼎鼎的Stable Diffusion模型。2023年2月,Runway提出了首个AI编辑模型Gen-1,用户可以在原视频基础上进行编辑操作;2023年2月,在很多用户都没拿到Gen-1内测资格的时候,Gen-2就发布了。相比Gen1,Gen-2在实现更高保真度和一致性的同时,增加了Multi-Motion Brush功能,允许用户在一张图像上选择多个区域,并对每个区域设置不同的运动速度参数;同时,Gen-2还可以无需原视频基础,从头升成视频。本次发布的Gen-3 Alpha模型使用视频和图像联合训练,其特色包括:90秒内快速生成10秒视频并行生成多个视频模型驱动新的文本到视频(T2V)、图像到视频(I2V)和文本到图像(T2I)动作笔刷、高级摄像机控制、导演模式即将推出用于精细控制结构、风格、动作的工具Runway CTO Anastasis Germanidis发帖表示,在多模态模型中,“控制”(即可控性)是关键,视频扩散模型(Vedio Diffusion Models)还远远未达到通过Scaling带来的性能提升;并且这些模型在学习预测视频的任务时,构建了视觉世界的强大表征,因此对于这些表征的把握至关重要。Anastasis Germ
Runway发布Gen-3 Alpha:用100万美元拍500部电影的时代来了!|甲子光年

端侧大模型火了,但CPU被低估了|甲子光年

当前端侧推理的起点,未来端侧推理的支点。作者|赵健大模型火了之后,GPU也火了。一时间,GPU的持有量几乎成为了评估大模型成败的“度量衡”。GPU很好,但不是大模型的全部。远比GPU诞生更早的中央处理器芯片——CPU,它在大模型中的地位可能被远远低估了。尤其是在端侧大模型兴起之后,端侧推理越来越成为CPU的舞台。过去大半年,端侧推理已经成为继“百模大战”之后下一个行业趋势,由此衍生的AI PC、AI手机等概念,也成为电脑厂商、手机厂商的兵家必争之地。把大模型装在PC、手机或者其他硬件中,需要足够的算力来支撑,同时也需要兼顾效率和功耗。而CPU很可能是当前阶段端侧推理的算力最优解。 1.端侧大模型火了今天,如果你想体验业内最领先的大模型对话助手,无论是OpenAI的ChatGPT,还是国内的Kimi、智谱清言等,都必须要联网。这些大模型都部署在云端,适合编排涉及高级推理、数据分析和上下文理解的复杂任务的应用程序。但是,云端模型不仅要消耗巨大的算力成本,还需要用户上传数据。出于对成本、数据隐私安全等方面的考量,把大模型部署在端侧,已成为大势所趋。在大模型落地端侧的需求下,我们能看到业内正在发生的两个趋势:第一个趋势是大模型正在越做越“小”。Meta、谷歌、微软等大厂在发布大模型时,往往是一个“中杯、大杯、超大杯”的模型家族,其最小的模型参数基本都在10B以下,并且有的会针对手机这样的大众级终端设备做适配。比如,微软在去年专门成立了一个小模型(SLM)团队,并在今年5月22日的微软Build开发者大会上发布了专门为手机端侧推理而设计的Phi-3系列模型;随后,在6月11日的WWDC开发者大会上,苹果也低调发布了一个3B的端侧小模型。值得一提的是,小模型并非要取代大模型,而是更适合处理那些不需要大量复杂推理或快速响应的应用程序。在适合端侧推理的小模型陆续出现之后,第二个趋
端侧大模型火了,但CPU被低估了|甲子光年

去老虎APP查看更多动态