甲子光年

中国科技产业精品智库

IP属地:未知
    • 甲子光年甲子光年
      ·07-25 13:01

      VC囤货GPU提供“氧气”,创业者真的买账吗?|甲子光年

      获得a16z或者红杉资本的投资,比获得算力资源重要多了。作者|田思奇氧气——人类生命的基础,灵感的源泉。而在AI时代,GPU就是供养每一位创业者的氧气。据美国科技媒体The Information在7月中旬的报道,管理着420亿美元资产的头部风投公司Andreessen Horowitz(简称a16z),已斥资数亿美元购买了数千块英伟达H100芯片。获得a16z投资的初创企业可以获得这些芯片的使用权。该计划被a16z称作“氧气计划”,凸显了GPU作为核心计算资源的重要性。GPU的稀缺性已无需赘言,a16z也不是唯一的囤货商。自2023年以来,VC界兴起打造GPU“蓄水池”的风潮。知名投资搭档奈特·弗里德曼(Nat Friedman)和丹尼尔·格罗斯(Daniel Gross),以及Conviction等新兴投资机构都采取了类似的做法。一场围绕计算资源的战略博弈,正在VC届悄然上演。市场供需的天平,仍然处于倾斜的状态。H100这样的旗舰级GPU,大多早已被科技巨头以长期巨额订单锁定,初创企业往往要排队许久。另一方面,资金充裕的大型科技公司逐步深入AI投资领域,投资总额甚至超越传统风投。在此背景下,VC们通过囤积稀缺资源,增强对优质投资对象的吸引力,显得顺理成章。毕竟,如果既能获得充足的资金支持,又能拥有数以万计的H100作为算力支撑,初创企业似乎没有太多拒绝科技巨头橄榄枝的理由。然而“甲子光年”对话的投资人均对a16z这一模式的招揽效果提出质疑。他们更相信,无论VC规模如何,囤卡行为都属于锦上添花,无法成为决定性因素。这似乎更像是a16z的媒体宣传策略,实际功效顶多是一张不痛不痒的优惠券。1.a16z的囤货策略a16z的雄心壮志,在其对GPU集群的大规模投资中显露无疑。据媒体报道,这家风险投资巨头未来会将其GPU集群扩展至2万块以上,这一规模与埃隆·马斯克的xAI公司用于训练
      80评论
      举报
      VC囤货GPU提供“氧气”,创业者真的买账吗?|甲子光年
    • 甲子光年甲子光年
      ·07-24

      开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年

      扎克伯格誓要把开源进行到底。作者|苏霍伊编辑|赵健Llama 3.1终于来了。美国当地时间7月23日,Meta正式发布Llama 3.1。其包含8B、70B 和405B三个规模,最大上下文提升到了128k。Llama目前开源领域中用户最多、性能最强的大型模型系列之一。本次Llama 3.1的要点有:1.共有8B、70B及405B三种版本,其中405B版本是目前最大的开源模型之一;2.该模型拥有4050亿参数,在性能上超越了现有的顶级AI模型;3.模型引入了更长的上下文窗口(最长可达128K tokens),能够处理更复杂的任务和对话;4.支持多语言输入和输出,增强了模型的通用性和适用范围;5.提高了推理能力,特别是在解决复杂数学问题和即时生成内容方面表现突出。Meta在官方博客中写道:“时至今日,开源大语言模型性能落后于闭源模型仍是常态。但现在,我们正在迎来一个开源引领的新时代。我们公开发布Meta Llama 3.1 405B是世界上最大、功能最强大的开源基础模型。迄今为止,所有Llama版本的累计下载次数已超过3亿,而这只是一个开始。”开源与闭源的争论一直是技术领域的热点话题。开源软件更为透明性和灵活性,允许全球开发者共同审查、修改和改进代码,从而推动了技术的快速创新和进步。而闭源模型通常由单一公司或组织开发和维护,它们能提供专业的支持和服务,确保软件的安全性和稳定性。但这种模式也限制了用户的控制权和自定义能力。此前,一直是闭源模型略胜一筹。直到Llama 3.1的发布,在持续激烈的开源与闭源之争写下浓墨重彩的一笔:开源模型终于可与闭源模型巅峰一战了。根据Meta提供的基准测试数据,最受关注的405B版本,从性能上已经可与GPT-4和Claude 3相媲美。其中Human Evaluation主要用于评估模型在理解和生成代码、解决抽象逻辑问题方面的能力。在与其他大型模型
      21评论
      举报
      开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年
    • 甲子光年甲子光年
      ·07-23

      跨境电商的AI奇点正在到来|甲子光年

      阿里国际用AI重写了1亿款商品的标题和详情页。作者|王艺‍‍‍编辑|栗子‍‍2023年是跨境电商在海外狂飙突进的一年。中国电商“出海四小龙”(SHEIN、速卖通AliExpress、Temu和TikTok Shop)开启快马加鞭的扩张时代,在全球市场和海外对手展开激烈竞争。在各大电商平台纷纷推出的“全托管(商家只负责供货,跨境电商平台提供运营、物流、售后等服务)”和“半托管”(平台负责卖货,但商家自己承担国际干线物流、到达目的地国后的配送费用)模式下,商家的销量实现了大幅增长。但除了依靠中国制造的强大供应链和极致性价比之外,还能如何实现长期可持续的增长,在全球与亚马逊等海外巨头竞争呢?点“科技树”或许是唯一的解法。生成式AI时代到来之后,从ChatGPT到Sora,AI工具的快速迭代,也给跨境电商行业带来了更多可能性:不仅80%以上的独立站卖家正在探索和利用AI技术来降本增效、提升用户体验,而且各大跨境电商平台从2023年下半年开始也在相继布局AI。比如亚马逊云科技去年推出了名为Amazon Bedrock的人工智能服务,允许客户通过Anthropic、Stability AI和亚马逊的现有模型构建GenAI应用程序;Shein将AI用于预测潮流趋势和电商图片生成;Shopee、Lazada、TikTokShop、Shopify等也在相继布局AI电商。更能证明AI在电商领域商业价值的案例是阿里国际数字商业集团(下文简称“阿里国际”)。在阿里巴巴2024年一季度的财报中,阿里国际零售业务营收222.78亿元。同比增长56%,是本季度增长幅度最大的业务。阿里国际这匹“黑马”并不是最近才冒头的。在2022年前三季度,阿里国际零售业务增长还处于个位数,一度甚至因为疫情小幅下滑震荡。自2023年第二季度(自然年自然季)以来,国际零售就开始狂飙——不仅保持两位数同比高增长,且增速越发陡
      33评论
      举报
      跨境电商的AI奇点正在到来|甲子光年
    • 甲子光年甲子光年
      ·07-16

      《2024AI体验营销行业研究报告》——AI营销:从新一代营销理论创新开始|甲子光年

      AI营销:从新一代营销理论创新开始。随着体验经济时代和智能新世代的到来,原有传统营销理论体系和初始的体验营销理论已经无法满足日益增长的数字化水平和企业需求,迫切需要构建新一代营销理论体系,以引领和策划数智时代的用户营销活动。结合当下的营销趋势与诉求,甲子光年智库特此推出《AI体验营销行业研究报告》,该报告深入梳理了体验营销理论的演进历程,以及数字技术带来的创新变革;提出创新的营销理论体系,明确了AI体验营销方法论;并从技术革新、模式创新、互动玩法等多个维度,分析了AI体验营销带来的营销创新;此外,报告精心选取了行业内的代表性企业及典型案例,可为企业开展体验经济时代的营销数字化转型提供参考。报告内容将围绕以下几个核心问题展开深入探讨:在体验经济时代,生产与消费行为呈现出哪些新趋势?哪些关键因素推动了AI体验营销理论的发展,它与传统营销理论相比具有哪些独特优势? AI体验营销的生态系统是如何构建的,当前市场上的主要参与者和竞争格局是怎样的?AI体验营销如何影响营销流程,带来了哪些创新的营销策略?在哪些重点行业和场景中,AI体验营销的应用尤为突出?AI体验营销当前的市场规模及其未来的增长潜力如何?在产品技术、营销人才等方面,将出现哪些新的发展动向?关注公众号“甲子光年”,后台回复“ 2024AI体验营销”,获得高清版完整PDF。或者点击文末“阅读原文”,进入甲子光年官网下载。
      45评论
      举报
      《2024AI体验营销行业研究报告》——AI营销:从新一代营销理论创新开始|甲子光年
    • 甲子光年甲子光年
      ·07-16

      这一次,国产光计算芯片走到了商业化的临界点|甲子光年

      光计算芯片行业的水温,正在发生变化。作者|八度‍‍编辑|王博“集成光路将是半导体领域60年一遇的‘换道超车’。”去年底,在2023全球硬科技创新大会上发布的《光子时代:光子产业发展白皮书》前言的最后一段,有着这样一句话。光计算芯片在算力、数据传输上的优势毋庸置疑,国内团队的研究成果也时常见诸报端,但一提到规模化商用,不少人仍心存疑虑。2023年,一位从事微纳光子器件科研的研究生在知乎上发帖讨论光计算芯片相关问题时就直白地说:“既然没有商用,肯定是还有很大问题的。”那么,光计算芯片从论文里走出来了吗?矩阵规模(算力密度)和单节点光辨识度(算力精度)是衡量光计算芯片性能的关键指标,业内公认的达到商用标准的矩阵规模是128×128,2021年全球范围内有两家企业完成了64×64的光计算芯片流片,此后三年内这个瓶颈一直没有被突破,有的企业甚至转战了其它赛道。而在近期举行的2024世界人工智能大会(WAIC)期间,“甲子光年”了解到,国内光计算芯片公司光本位科技已完成首颗算力密度和算力精度均达到商用标准的光计算芯片流片,这颗芯片的矩阵规模为128×128,峰值算力超1700TOPS。光本位科技研发的矩阵规模为128×128的光计算芯片,图片来源:光本位科技“我们目前对标的就是英伟达A100,”光本位科技联合创始人程唐盛告诉“甲子光年”,“128×128芯片将被制作成板卡,其最终形成的算力将与英伟达的电子芯片产品具有可比性。同时,我们的初代产品功耗大约是它们的十分之一到十五分之一。此外,在延时方面,光计算芯片也会有数量级的降低。”128×128的矩阵规模,意味着国产光计算芯片离产业化更近一步,而不仅仅是“停留在纸面上”“只生活在实验室里”。光本位科技创始人熊胤江表示,公司正在进行128×128光计算板卡调试,预计将于2025年内推出商业化光计算板卡产品,用更高的能效比、更大的算力赋能大
      106评论
      举报
      这一次,国产光计算芯片走到了商业化的临界点|甲子光年
    • 甲子光年甲子光年
      ·07-09

      如何打破货车“不超载不赚钱”的怪圈?|甲子光年

      一件似乎与你我无关,但是的确与你我有关的事情正在发生。作者|王艺编辑|王博用9.6米长的重型厢式货车,运一单重量为17吨的冷冻食品。从山东省汶上县出发,到山东省诸城市卸货,走高速,路程约为350公里。按照每吨货物运费200元计算,拉这一单,货主给司机何师傅的报价是3400元。成本呢?货运有两项大额刚性支出:路桥费和燃油费。高速通行费每公里1.7元,整体约为600元;9.6米的满载厢货,百公里烧42升柴油,按山东省一升柴油7.6元的价格计算,燃油成本约为1140元。也就是说,运这一趟货物的刚性支出超过1700元。如果再加上空车返程,那么这一趟货送下来,何师傅几乎赚不到什么钱。一直以来,燃油成本都是困扰货运司机最大的问题之一。也因此,为了跑一趟车能赚更多的钱,超载现象时有发生,“不超载不赚钱”已是“行业潜规则”。即使有些司机为了省钱,将自己的燃油车换成了新能源货车,但是最终发现并没有省多少钱——以城市轻型货运车为例,传统车型的燃油成本在单月4000元左右,但是加油方便、续航持久,多拉几单很容易赚回来;但切换到新能源货车以后,尽管充电成本降低到了1500元左右,由于充电桩不是随处都在,补能不便,减少了接更多订单的机会。也因此,新能源在商用车领域的渗透率远远低于乘用车。数据可以说明这一点:从2019-2021年,整个新能源商用车的渗透率一直在3%左右的水平徘徊,尽管2022年达到了9%、2023年达到了10%,但是相比于乘用车2022年27%、2023年34%的渗透率,仍然远远不足。可能有人会说:“商用车和我们关系大吗?”那些穿梭在城市大街小巷的物流货运车、清晨的环卫洒水车、旅游景区旁停放的大巴车、高速公路上疾驰的重型卡车等都是商用车。当然,被媒体曝光后冲上热搜的“卸完煤制油直接装运食用大豆油”的罐车也是商用车,而罐车司机“在换货运输过程中不清洗罐体”的原因还是——节约成本。有关部
      219评论
      举报
      如何打破货车“不超载不赚钱”的怪圈?|甲子光年
    • 甲子光年甲子光年
      ·07-09

      李彦宏再谈开源:开源模型是智商税,永远应该选择闭源模型|甲子光年

      “今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”在2024世界人工智能大会(WAIC 2024)期间,百度创始人、董事长兼首席执行官李彦宏,与第一财经传媒集团总编辑杨宇东和《硅谷101》创始人陈茜,进行了一场圆桌访谈。在一个小时的对话中,李彦宏对开源闭源、大模型价格战、智能体、超级应用、AGI等业界热点问题,表达了自己的看法。李彦宏认为,开源其实是一种智商税。“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”谈及“AI超级应用什么时候出现”时,李彦宏表示,“不是说一定在等待一个超级应用的出现”。他认为,在基础模型之上,应该能够诞生数以百万计的各种各样的应用。“如果仅仅是从0到1,你可能会希望出现某几个Super APP,也就是几个公司从中受益。但是今天,几乎各行各业所有的公司,被大模型加持之后,它都能受益。这种影响力,对于整个社会、对于人类来说,无疑是更大的。”    李彦宏称,智能体代表着AI时代的未来趋势。“智能体正在爆发,只是现在基数还比较小,大家的体感没有那么强烈。”基础模型需要靠应用才能显现出价值,智能体是一个几乎“放之四海而皆准”的基于大模型的应用,由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。“让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Super APP。”以下为访谈精编全文:1.超级应用什么时候出现?基础模型之上将诞生数以百万计的应用问:由ChatGPT掀起的这个热潮已经持续一年多了,你也曾表达,接下来超级应用什么时候出现?我们看到国内面向C端的大模型产品形态,看起来都差不多,都是搜索框+问答这种模式,你怎么看?
      329评论
      举报
      李彦宏再谈开源:开源模型是智商税,永远应该选择闭源模型|甲子光年
    • 甲子光年甲子光年
      ·07-04

      “火热”的WAIC:25款人形机器人,与数不清的大模型|甲子光年

      最“热”的一届WAIC。作者|赵健 八度上海正午40度的高温,没能阻挡大家参加世界人工智能大会(WAIC)的热情。在WAIC开幕的第一个下午,上海世博中心几乎每一个论坛都挤满了观众。无问芯穹的AI基础设施论坛现场在会场外,WAIC的门票一票难求,不少人懊悔错过了早点买票的时机。根据官方数据,本届WAIC有500余家企业确认参展,市外企业和国际企业占比超50%,展品数量已超1500项。今年的WAIC有两大看点,一是上演了现实版的“百模大战”。去年很多AI公司还在观望,甚至还没有诞生。而在WAIC上你可以一口气看完主流市场上99%的大模型——月之暗面、零一万物等头部厂商没有参加。除此之外,Minimax、百川智能、智谱AI、阶跃星辰等“大模型新势力”,以及百度、阿里巴巴、腾讯、华为、商汤科技、科大讯飞、中国移动、中国联通、星环科技等产业头部玩家悉数亮相。其中,MiniMax创始人、CEO闫俊杰还在现场向“甲子光年”等媒体透露,MiniMax将在下个月发布AI视频生成产品。不过,大模型看多了可能也会审美疲劳。有不少观众现场表示,每一家的产品看起来“大差不差”。第二大看点非人形机器人与具身智能莫属。本届大会展览重点打造人形机器人专区,展出人形机器人25款,现场发布全球首个全尺寸开源公版人形机器人青龙,以及国内首个全尺寸人形机器人开源社区。特斯拉首发Optimus二代,宇树科技展示国内首款实现奔跑功能的全尺寸通用人形机器人H1。傅利叶、达闼、云深处科技等企业也带来总计超20款智能机器人。现场还有海外各地的采购团,比如巴西、日本等等。采购团的热情很高,看到新奇的机器人都纷纷拿出手机拍照。今年的WAIC,很可能是“最火热”的一届,无论是物理意义上,还是产业意义上。1.具身智能成大热门,人形机器人“竞相比武”深入到WAIC的H1展位,各机器人公司都开足马力,展现自家王牌产品,真正秀出了最硬
      236评论
      举报
      “火热”的WAIC:25款人形机器人,与数不清的大模型|甲子光年
    • 甲子光年甲子光年
      ·07-04

      今天,阶跃星辰正式发布万亿MoE大模型|甲子光年

      国产大模型跑出了“阶跃速度”。作者|赵健今年的世界人工智能大会(WAIC),“大模型”含量极高,既有已发布模型的集中展示,也有大模型的首发亮相。其中,阶跃星辰是模型更新迭代最大的大模型公司之一。这家在今年3月才浮出水面的国产大模型公司,一口气发布了三款大模型,包括:Step-2万亿MoE语言大模型正式版、 Step-1.5V多模态大模型、Step-1X图像生成大模型。阶跃星辰的Step系列通用大模型荣获WAIC 2024 SAIL之星奖项。同时,阶跃星辰还与上影合作,在WAIC现场发布了《大闹天宫》AI 互动体验——“测测你是哪路神仙”。如此一来,阶跃星辰成为国内极少数同时布局大语言模型与多模态大模型,并且模型产品已经正式发布的AI公司,多模态理解和生成的统一布局,也被包括阶跃星辰在内的很多AI从业者看作是通往AGI的必经之路。从公司亮相至今短短100多天的时间里,阶跃星辰跑出了“阶跃速度”,迅速跻身于国产大模型的第一梯队。1.万亿模型俱乐部阶跃星辰本次发布的万亿参数大模型是一个重头戏,放眼全球也屈指可数。今年3月阶跃星辰首次亮相的Step-1是一个千亿参数的稠密(Dense)模型,而本次发布了Step-2则是一个万亿参数的MoE模型。“稠密”与“MoE”是描述大模型参数的两种技术路径。稠密模型的参数量与实际运行参数是1:1的关系,在推理时输入的token会把所有参数都运行一遍;而MoE模型的实际运行参数只有总参数的1/4或者1/8,以此来提高推理的效率。关于两者的更细微的区别,不妨直接问一下阶跃星辰推出的对话助手产品“跃问”:今天,在Scaling Law的指导下,大模型的参数量越做越大已经是一个确定性的趋势。但是从千亿到万亿的跨越,到底应该采用稠密模型还是MoE模型?阶跃星辰CEO姜大昕认为,想把模型参数扩大到万亿的话,MoE几乎是一个必选项。就像做科研或者做工程,很多
      74评论
      举报
      今天,阶跃星辰正式发布万亿MoE大模型|甲子光年
    • 甲子光年甲子光年
      ·07-03

      2024自动驾驶行业研究报告:“端到端”渐行渐近|甲子光年智库

      算力、数据与可解释性,是端到端模型上车的主要挑战。在探索更高级别自动驾驶的征途中,以GPT为代表的AI大模型技术以其快速创新和先进的概念架构,启发了广大自动驾驶领域的从业者,并正在重塑自动驾驶系统的研发范式。全球自动驾驶行业的版图正在迅速响应这一变化,随着特斯拉、Wayve、元戎启行、商汤科技等公司在端到端自动驾驶领域的突破性进展,行业正目睹着一场技术的革命。这些公司不仅在技术研发上取得了显著成就,更在商业化应用上迈出了坚实的第一步,引领着行业向更高级别的智能化发展。特别是智能驾驶的行业标杆特斯拉,FSD V12系统的全面推出,标志着端到端自动驾驶技术在量产车型上的应用已成为现实。这一系统通过深度学习模型,直接从原始传感器数据中提取信息,实现从感知到控制的无缝连接,极大地提升了自动驾驶的效率和安全性。而像Wayve这样的AI初创公司,凭借其端到端机器学习技术与生成式世界模型的理念,正在快速扩张在英国和欧洲的业务版图,展现了端到端技术在复杂城市环境中的适应性和可靠性。在国内,华为、小鹏、商汤科技、元戎启行等企业也积极跟进,纷纷推出了面向量产的端到端自动驾驶解决方案和车型。这些方案不仅在技术层面上展现了强大的竞争力,更在卓越的实际道路表现中证明了其有效性。随着这些技术的不断成熟和完善,我们有理由相信,端到端这一技术路线将为自动驾驶领域带来更加广阔的应用前景。基于此,甲子光年智库分析师撰写了《2024自动驾驶行业研究报告:“端到端”渐行渐近》,在这股智能化的浪潮中,对端到端自动驾驶技术进行剖析,期望为自动驾驶领域的研究者、决策者、观察者及广大爱好者提供一份全面深入的参考资料。期待与您一同见证端到端自动驾驶技术的无限可能,探索智能出行的未来篇章。报告主要内容:智能化已成为汽车消费者购车时的关键考量因素之一,随着电动化和智能化的快速发展,消费者对自动驾驶技术、智能座舱等高端智能化功能
      128评论
      举报
      2024自动驾驶行业研究报告:“端到端”渐行渐近|甲子光年智库
     
     
     
     

    热议股票