+关注
找乐自由之路
暂无个人介绍
IP属地:新疆
62
关注
4
粉丝
1
主题
0
勋章
主贴
热门
找乐自由之路
07-26
$东方甄选(01797)$
没有了懂宇辉剩下的那些主播啥都不是!一个个自以为很了不起其实都是寄生植物
找乐自由之路
2023-11-23
西部世界正在进行时
OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?
找乐自由之路
2023-10-24
打击电诈人人有责
中国经济时报刊文:为终将到来的新一轮牛市做好准备
找乐自由之路
2022-07-27
$怪兽充电(EM)$
吞金兽
找乐自由之路
2022-07-23
$Snap Inc(SNAP)$
tiktok在,其他app一路向南[开心]
找乐自由之路
2022-07-22
$特斯拉(TSLA)$
特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!
找乐自由之路
2022-07-22
$Faraday Future(FFIE)$
疯了吗?只要谈好一家中国生产商还是狠有想象力的
找乐自由之路
2022-07-02
中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!
一个时代的终结:Naspers、软银各自从腾讯、阿里抽身
找乐自由之路
2022-05-05
学习俄罗斯
抱歉,原内容已删除
找乐自由之路
2021-12-28
阿里只要不吃里扒外还是好公司
达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制
找乐自由之路
2021-12-04
$滴滴(DIDI)$
没有消炎的战场,这一局完败!血流成河惨不忍睹……
找乐自由之路
2021-11-13
$柯达(KODK)$
元宇宙核心光场相机应该可以涨100倍左右
找乐自由之路
2021-11-10
垃圾
特斯拉最大劲敌要来了!Rivian将IPO定价在78美元
找乐自由之路
2021-09-29
……
网信办:坚持风险防控,推进算法分级分类安全管理
找乐自由之路
2021-08-20
业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸
抱歉,原内容已删除
找乐自由之路
2021-07-16
$滴滴(DIDI)$
七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来
找乐自由之路
2021-07-04
国家安全重大漏洞居然现在才开始整治
抱歉,原内容已删除
找乐自由之路
2021-05-14
中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪
苹果公司遭反垄断集体诉讼,英国消费者寻求15亿英镑赔偿
找乐自由之路
2021-05-14
中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪
抱歉,原内容已删除
找乐自由之路
2021-05-06
美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。
抱歉,原内容已删除
去老虎APP查看更多动态
{"i18n":{"language":"zh_CN"},"userPageInfo":{"id":"3434884009534721","uuid":"3434884009534721","gmtCreate":1477450178906,"gmtModify":1606960251986,"name":"找乐自由之路","pinyin":"zlzyzlzhaoleziyouzhilu","introduction":"","introductionEn":"","signature":"","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":4,"headSize":62,"tweetSize":34,"questionSize":0,"limitLevel":900,"accountStatus":4,"level":{"id":2,"name":"无畏虎","nameTw":"無畏虎","represent":"初生牛犊","factor":"发布3条非转发主帖,1条获得他人回复或点赞","iconColor":"3C9E83","bgColor":"A2F1D9"},"themeCounts":1,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":0,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-4","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"明星虎友","description":"加入老虎社区2000天","bigImgUrl":"https://static.tigerbbs.com/dddf24b906c7011de2617d4fb3f76987","smallImgUrl":"https://static.tigerbbs.com/53d58ad32c97254c6f74db8b97e6ec49","grayImgUrl":"https://static.tigerbbs.com/6304700d92ad91c7a33e2e92ec32ecc1","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2022.04.19","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001},{"badgeId":"228c86a078844d74991fff2b7ab2428d-3","templateUuid":"228c86a078844d74991fff2b7ab2428d","name":"投资合伙人虎","description":"证券账户累计交易金额达到100万美元","bigImgUrl":"https://static.tigerbbs.com/fbeac6bb240db7da8b972e5183d050ba","smallImgUrl":"https://static.tigerbbs.com/436cdf80292b99f0a992e78750ac4e3a","grayImgUrl":"https://static.tigerbbs.com/506a259a7b456f037592c3b23c779599","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.22","exceedPercentage":"93.99%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1101},{"badgeId":"976c19eed35f4cd78f17501c2e99ef37-1","templateUuid":"976c19eed35f4cd78f17501c2e99ef37","name":"博闻投资者","description":"累计交易超过10只正股","bigImgUrl":"https://static.tigerbbs.com/e74cc24115c4fbae6154ec1b1041bf47","smallImgUrl":"https://static.tigerbbs.com/d48265cbfd97c57f9048db29f22227b0","grayImgUrl":"https://static.tigerbbs.com/76c6d6898b073c77e1c537ebe9ac1c57","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1102},{"badgeId":"518b5610c3e8410da5cfad115e4b0f5a-1","templateUuid":"518b5610c3e8410da5cfad115e4b0f5a","name":"实盘交易者","description":"完成一笔实盘交易","bigImgUrl":"https://static.tigerbbs.com/2e08a1cc2087a1de93402c2c290fa65b","smallImgUrl":"https://static.tigerbbs.com/4504a6397ce1137932d56e5f4ce27166","grayImgUrl":"https://static.tigerbbs.com/4b22c79415b4cd6e3d8ebc4a0fa32604","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},{"badgeId":"35ec162348d5460f88c959321e554969-3","templateUuid":"35ec162348d5460f88c959321e554969","name":"传说交易员","description":"证券或期货账户累计交易次数达到300次","bigImgUrl":"https://static.tigerbbs.com/656db16598a0b8f21429e10d6c1cb033","smallImgUrl":"https://static.tigerbbs.com/03f10910d4dd9234f9b5702a3342193a","grayImgUrl":"https://static.tigerbbs.com/0c767e35268feb729d50d3fa9a386c5a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":"93.27%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100}],"userBadgeCount":5,"currentWearingBadge":null,"individualDisplayBadges":null,"crmLevel":5,"crmLevelSwitch":0,"location":"新疆","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":5,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"baikeInfo":{},"tab":"post","tweets":[{"id":331595196825656,"gmtCreate":1721962597572,"gmtModify":1721963297664,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/01797\">$东方甄选(01797)$ </a> 没有了懂宇辉剩下的那些主播啥都不是!一个个自以为很了不起其实都是寄生植物","listText":"<a href=\"https://laohu8.com/S/01797\">$东方甄选(01797)$ </a> 没有了懂宇辉剩下的那些主播啥都不是!一个个自以为很了不起其实都是寄生植物","text":"$东方甄选(01797)$ 没有了懂宇辉剩下的那些主播啥都不是!一个个自以为很了不起其实都是寄生植物","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/331595196825656","isVote":1,"tweetType":1,"viewCount":799,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":244657399623800,"gmtCreate":1700745354051,"gmtModify":1700745355776,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"西部世界正在进行时","listText":"西部世界正在进行时","text":"西部世界正在进行时","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/244657399623800","repostId":"2385143611","repostType":2,"repost":{"id":"2385143611","kind":"highlight","weMediaInfo":{"introduction":"经纬创投公众平台,创享汇,新闻发布官方平台","home_visible":1,"media_name":"经纬创投","id":"74","head_image":"https://static.tigerbbs.com/c6c12027b4d84f89b5da0a5de2093ad1"},"pubTimestamp":1700722680,"share":"https://www.laohu8.com/m/news/2385143611?lang=&edition=full","pubTime":"2023-11-23 14:58","market":"us","language":"zh","title":"OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?","url":"https://stock-news.laohu8.com/highlight/detail?id=2385143611","media":"经纬创投","summary":"最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:谁能被信任,来打开AI这个$潘多拉$魔盒?在这起Open AI的风波背后,这个问题依然值得我们重视。","content":"<html><head></head><body><p>最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:<strong>董事会到底为什么要突然驱逐Sam Altman?</strong></p><p>最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>发现可能威胁到人类,<strong>这个项目被称为“Q*”(Q-star)</strong>。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。</p><p>董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。</p><p>无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:<strong>谁能被信任,来打开AI这个<a href=\"https://laohu8.com/S/0NQC.UK\">潘多拉</a>魔盒?</strong></p><p>AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。</p><p>所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:<strong>是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。</strong>在这起Open AI的风波背后,这个问题依然值得我们重视。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/045399ec1243d0bdfac1235508850484\" title=\"随着语言模型规模的增长,新能力突然出现;图片来源:Google\" tg-width=\"1079\" tg-height=\"393\"/><span>随着语言模型规模的增长,新能力突然出现;图片来源:Google</span></p><p>“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“<strong>学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。</strong>”</p><p>70多年后,这则恐怖的论断成真了。<strong>大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。</strong><a href=\"https://laohu8.com/S/MSFT\">微软</a>在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?<strong>为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?</strong></p><p>微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……</p><p>搞清楚这些问题其实非常重要,<strong>短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。</strong></p><p><strong>长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>的<a href=\"https://laohu8.com/S/300024\">机器人</a>结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。</strong></p><p>目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,<strong>在文末的注释中会列出这些论文的简介与链接,</strong>供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:</p><p><strong>● 大语言模型令人震惊的理解和推理能力</strong></p><p><strong>● 当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>● 多大的模型规模会出现“涌现”?</strong></p><p><strong>● (附录:本文的论文注释与引用)</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5992222369ad402391979786b9535d32\" title=\"大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models\"/><span>大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</span></p><p><strong>1、大语言模型令人震惊的理解和推理能力</strong></p><p>最近几个月里,硅谷一夜之间出现了几百家应用层的<a href=\"https://laohu8.com/S/V03.SI\">创业公司</a>,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。</p><p>并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。<strong>这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。</strong></p><p>下面我们先列举一些<strong>GPT-4所表现出来的、令人震惊的理解和推理能力:</strong></p><p><img src=\"https://static.tigerbbs.com/3ec8279f39d648168b0617f4af7614c2\" alt=\"\"/>这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。</p><p>给GPT-4提问:你能解释一下作者想表达什么吗?</p><p>GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。</p><p><strong>上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/41e25bcca519475fb6194847629cf74e\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?</p><p>我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。</p><p>我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5849e896a8564c8191ffd628ecb1bdc8\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。</p><p><strong>这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。</strong></p><p><strong>为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。</strong>例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。</p><p>以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?<strong>Google在2022年做了一项重要的基准测试。</strong>研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。</p><p>这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。</p><p>BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。</p><p><strong>还有一些对大语言模型参数规模与性能之间联系的研究,</strong>比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。</p><p>这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。</p><p>还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,<strong>LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。</strong></p><p>目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:<strong>小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。</strong></p><p><strong>2、当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。</strong>在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。</p><p><img src=\"https://static.tigerbbs.com/061be27a983b491ea7f0817e4f9fb34c\" alt=\"\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8121528d65f54ebfad37d20d57a1ecf1\" title=\"近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research\"/><span>近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research</span></p><p><strong>当我们不断加大模型规模时,大语言模型出现了三种表现:</strong></p><p><strong>第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。</strong>从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ebd6d1103dda4ef9acd988b5d2e88f54\" title=\"知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models\"/><span>知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</span></p><p>如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,<strong>各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,</strong>这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。</p><p>另外,<strong>各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。</strong></p><p>世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。</p><p><img src=\"https://static.tigerbbs.com/8405960deda64487903a89e28fdeb607\" alt=\"\"/><em>一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。</em></p><p><em>图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT</em></p><p>更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。</p><p><img src=\"https://static.tigerbbs.com/dca373ac6ea541daa284372693e6bc99\" alt=\"\"/><em>这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。</em></p><p><em>图片来源:Transformer Feed-Forward Layers Are Key-Value Memories</em></p><p><strong>能证明大语言模型是有知识沉淀的,其实非常重要。</strong>OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。</p><p>在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。</p><p><strong>目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。</strong></p><p>另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。</p><p><img src=\"https://static.tigerbbs.com/64869901ee0745e085f571e6f6456cb9\" alt=\"\"/><em>当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models</em></p><p><strong>在上一步的基础上,第二类就是涌现出新能力。</strong>具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。<strong>但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。</strong>经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。</p><p><img src=\"https://static.tigerbbs.com/d3aaae883042412ca8ed4df001c65875\" alt=\"\"/><em>多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</em></p><p><strong>第三种表现是有些情况下,能力效果会呈现U型曲线。</strong>这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。</p><p><img src=\"https://static.tigerbbs.com/ebc9b80391b24fb182f03462fa251be1\" alt=\"\"/><em>图片来源:Google:Inverse scaling can become U-shaped</em></p><p>如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。</p><p>当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。</p><p><strong>3、两种被证明具备“涌现”的典型能力:</strong></p><p><strong>上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。</strong></p><p><strong>第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。</strong></p><p><strong>ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。</strong>这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。</p><p><strong>ICL对大语言模型能否泛化非常重要。</strong>在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。<strong>此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。</strong></p><p><img src=\"https://static.tigerbbs.com/afa4311a3e5846b58b304496187e9e5c\" alt=\"\"/><em>In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?</em></p><p>上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。</p><p>所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。<strong>在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。</strong></p><p>不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。</p><p>还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。</p><p>但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?</p><p>这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。</p><p><strong>第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。</strong></p><p>CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。</p><p><img src=\"https://static.tigerbbs.com/1cfcfc768c364892aee7148d7d0d990c\" alt=\"\"/>图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models</p><p>最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。</p><p>CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,<strong>开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。</strong></p><p>我们在上文分析过,通过<a href=\"https://laohu8.com/S/603138\">海量数据</a>训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。<strong>但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。</strong></p><p>所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。</p><p><img src=\"https://static.tigerbbs.com/8b2479a672f4498d908ab5aca11d58ae\" alt=\"\"/><em>使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p><img src=\"https://static.tigerbbs.com/e8a22dca3ba041bca7f47f1e065de4f0\" alt=\"\"/><em>使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p>如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。</p><p><img src=\"https://static.tigerbbs.com/518a43dc2a9f49f4a4350ad40c21e54b\" alt=\"\"/><em>图片来源:OpenAI:GPT-4 Technical Report</em></p><p><img src=\"https://static.tigerbbs.com/774f97cb97e740e484404bcca764b4fd\" alt=\"\"/><em>一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p><strong>不过目前大模型在复杂推理方面仍然有局限性。</strong>无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。</p><p>比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。</p><p><img src=\"https://static.tigerbbs.com/894714645285430fac5217b5510cbce6\" alt=\"\"/><em>图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4</em></p><p>但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”</p><p>于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。<strong>总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。</strong></p><p><strong>4、多大的模型规模会出现“涌现”?</strong></p><p>我们在上文分析了大模型在哪些任务中出现了涌现现象,<strong>紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?</strong></p><p><strong>根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。</strong></p><p>在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。</p><p><img src=\"https://static.tigerbbs.com/bfdb5cf247c243f281e6ed0b1bc6a651\" alt=\"\"/><em>ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p>而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。</p><p><img src=\"https://static.tigerbbs.com/4bd1c9fa45af4c5f808859a03a62a5c7\" alt=\"\"/>CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</p><p><strong>所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。</strong>例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。</p><p><strong>那么能不能把模型做小?</strong>我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。</p><p><strong>目前小模型的代表之一是DeepMind的Chinchilla,</strong>它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。</p><p>Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。</p><p>于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。</p><p><img src=\"https://static.tigerbbs.com/a507583f14a94d0790c80cc3ac982593\" alt=\"\"/><em>各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language Models</em></p><p><img src=\"https://static.tigerbbs.com/e3ca672bf7ad4cf7a24a55ed565a5999\" alt=\"\"/>Chinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。</p><p>如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。</p><p><img src=\"https://static.tigerbbs.com/b8c2c23a300a4c6db65b6ea1b077aa8b\" alt=\"\"/>图片来源:DeepMind:Training Compute-Optimal Language Models</p><p>在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。</p><p><strong>这里就涉及到了一个核心问题——算力如何分配?</strong>我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。<strong>那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?</strong></p><p>最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。</p><p>OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。<strong>OpenAI的结论是优先增加模型参数,然后才是训练数据量。</strong>假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。</p><p>DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,<strong>DeepMind认为训练数据量也很重要,不亚于模型参数。</strong></p><p>基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。</p><p><strong>另一个“小”模型的例子是Meta推出的LLaMA。</strong>LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。</p><p>从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。</p><p><strong>Meta更进一步的是,把推理成本也纳入进来。</strong>Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。</p><p>所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。</p><p>那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?</p><p><img src=\"https://static.tigerbbs.com/6f3802584c6e43d0a0706d5ecbb28c89\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p><img src=\"https://static.tigerbbs.com/be53cf0e950d45e6a82643a137819d78\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p>上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,<strong>这证明了更小的参数规模,也能产生涌现能力。</strong></p><p>以上这些研究都很有意义,<strong>我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。</strong></p><p><strong>那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。</strong></p><p>一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。</p><p>涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。</p><p>ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。</p><p>微软在GPT-4论文中写道:</p><ul style=\"\"><li><p><em>我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?</em><strong><em>为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?</em></strong></p></li><li><p><em>这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,</em><strong><em>关键方向就是对大语言模型涌现现象的持续研究。</em></strong></p></li><li><p><em>阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,</em><strong><em>这个挑战在今天已经突然变得重要和紧迫。</em></strong></p></li></ul><p>1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:</p><ul style=\"\"><li><p><em>机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;</em></p></li><li><p><em>在不违反第一定律的前提下,机器人必须服从人给予它的命令;</em></p></li><li><p><em>机器人在不违反第一、第二定律的情况下要尽力保护自己。</em></p></li></ul><p>当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。<strong>我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。</strong></p><p>目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。</p><p><strong>在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。</strong></p><p>纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。<strong>如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。</strong></p><p><img src=\"https://static.tigerbbs.com/fe5a376e68b64e5d82e70cf015a9cc38\" alt=\"\"/><em>Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。</em></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nOpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/74\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/c6c12027b4d84f89b5da0a5de2093ad1);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">经纬创投 </p>\n<p class=\"h-time\">2023-11-23 14:58</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:<strong>董事会到底为什么要突然驱逐Sam Altman?</strong></p><p>最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>发现可能威胁到人类,<strong>这个项目被称为“Q*”(Q-star)</strong>。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。</p><p>董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。</p><p>无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:<strong>谁能被信任,来打开AI这个<a href=\"https://laohu8.com/S/0NQC.UK\">潘多拉</a>魔盒?</strong></p><p>AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。</p><p>所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:<strong>是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。</strong>在这起Open AI的风波背后,这个问题依然值得我们重视。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/045399ec1243d0bdfac1235508850484\" title=\"随着语言模型规模的增长,新能力突然出现;图片来源:Google\" tg-width=\"1079\" tg-height=\"393\"/><span>随着语言模型规模的增长,新能力突然出现;图片来源:Google</span></p><p>“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“<strong>学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。</strong>”</p><p>70多年后,这则恐怖的论断成真了。<strong>大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。</strong><a href=\"https://laohu8.com/S/MSFT\">微软</a>在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?<strong>为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?</strong></p><p>微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……</p><p>搞清楚这些问题其实非常重要,<strong>短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。</strong></p><p><strong>长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>的<a href=\"https://laohu8.com/S/300024\">机器人</a>结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。</strong></p><p>目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,<strong>在文末的注释中会列出这些论文的简介与链接,</strong>供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:</p><p><strong>● 大语言模型令人震惊的理解和推理能力</strong></p><p><strong>● 当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>● 多大的模型规模会出现“涌现”?</strong></p><p><strong>● (附录:本文的论文注释与引用)</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5992222369ad402391979786b9535d32\" title=\"大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models\"/><span>大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</span></p><p><strong>1、大语言模型令人震惊的理解和推理能力</strong></p><p>最近几个月里,硅谷一夜之间出现了几百家应用层的<a href=\"https://laohu8.com/S/V03.SI\">创业公司</a>,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。</p><p>并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。<strong>这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。</strong></p><p>下面我们先列举一些<strong>GPT-4所表现出来的、令人震惊的理解和推理能力:</strong></p><p><img src=\"https://static.tigerbbs.com/3ec8279f39d648168b0617f4af7614c2\" alt=\"\"/>这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。</p><p>给GPT-4提问:你能解释一下作者想表达什么吗?</p><p>GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。</p><p><strong>上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/41e25bcca519475fb6194847629cf74e\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?</p><p>我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。</p><p>我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5849e896a8564c8191ffd628ecb1bdc8\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。</p><p><strong>这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。</strong></p><p><strong>为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。</strong>例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。</p><p>以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?<strong>Google在2022年做了一项重要的基准测试。</strong>研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。</p><p>这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。</p><p>BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。</p><p><strong>还有一些对大语言模型参数规模与性能之间联系的研究,</strong>比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。</p><p>这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。</p><p>还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,<strong>LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。</strong></p><p>目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:<strong>小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。</strong></p><p><strong>2、当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。</strong>在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。</p><p><img src=\"https://static.tigerbbs.com/061be27a983b491ea7f0817e4f9fb34c\" alt=\"\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8121528d65f54ebfad37d20d57a1ecf1\" title=\"近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research\"/><span>近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research</span></p><p><strong>当我们不断加大模型规模时,大语言模型出现了三种表现:</strong></p><p><strong>第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。</strong>从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ebd6d1103dda4ef9acd988b5d2e88f54\" title=\"知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models\"/><span>知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</span></p><p>如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,<strong>各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,</strong>这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。</p><p>另外,<strong>各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。</strong></p><p>世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。</p><p><img src=\"https://static.tigerbbs.com/8405960deda64487903a89e28fdeb607\" alt=\"\"/><em>一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。</em></p><p><em>图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT</em></p><p>更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。</p><p><img src=\"https://static.tigerbbs.com/dca373ac6ea541daa284372693e6bc99\" alt=\"\"/><em>这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。</em></p><p><em>图片来源:Transformer Feed-Forward Layers Are Key-Value Memories</em></p><p><strong>能证明大语言模型是有知识沉淀的,其实非常重要。</strong>OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。</p><p>在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。</p><p><strong>目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。</strong></p><p>另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。</p><p><img src=\"https://static.tigerbbs.com/64869901ee0745e085f571e6f6456cb9\" alt=\"\"/><em>当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models</em></p><p><strong>在上一步的基础上,第二类就是涌现出新能力。</strong>具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。<strong>但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。</strong>经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。</p><p><img src=\"https://static.tigerbbs.com/d3aaae883042412ca8ed4df001c65875\" alt=\"\"/><em>多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</em></p><p><strong>第三种表现是有些情况下,能力效果会呈现U型曲线。</strong>这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。</p><p><img src=\"https://static.tigerbbs.com/ebc9b80391b24fb182f03462fa251be1\" alt=\"\"/><em>图片来源:Google:Inverse scaling can become U-shaped</em></p><p>如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。</p><p>当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。</p><p><strong>3、两种被证明具备“涌现”的典型能力:</strong></p><p><strong>上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。</strong></p><p><strong>第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。</strong></p><p><strong>ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。</strong>这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。</p><p><strong>ICL对大语言模型能否泛化非常重要。</strong>在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。<strong>此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。</strong></p><p><img src=\"https://static.tigerbbs.com/afa4311a3e5846b58b304496187e9e5c\" alt=\"\"/><em>In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?</em></p><p>上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。</p><p>所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。<strong>在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。</strong></p><p>不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。</p><p>还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。</p><p>但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?</p><p>这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。</p><p><strong>第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。</strong></p><p>CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。</p><p><img src=\"https://static.tigerbbs.com/1cfcfc768c364892aee7148d7d0d990c\" alt=\"\"/>图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models</p><p>最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。</p><p>CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,<strong>开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。</strong></p><p>我们在上文分析过,通过<a href=\"https://laohu8.com/S/603138\">海量数据</a>训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。<strong>但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。</strong></p><p>所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。</p><p><img src=\"https://static.tigerbbs.com/8b2479a672f4498d908ab5aca11d58ae\" alt=\"\"/><em>使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p><img src=\"https://static.tigerbbs.com/e8a22dca3ba041bca7f47f1e065de4f0\" alt=\"\"/><em>使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p>如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。</p><p><img src=\"https://static.tigerbbs.com/518a43dc2a9f49f4a4350ad40c21e54b\" alt=\"\"/><em>图片来源:OpenAI:GPT-4 Technical Report</em></p><p><img src=\"https://static.tigerbbs.com/774f97cb97e740e484404bcca764b4fd\" alt=\"\"/><em>一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p><strong>不过目前大模型在复杂推理方面仍然有局限性。</strong>无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。</p><p>比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。</p><p><img src=\"https://static.tigerbbs.com/894714645285430fac5217b5510cbce6\" alt=\"\"/><em>图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4</em></p><p>但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”</p><p>于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。<strong>总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。</strong></p><p><strong>4、多大的模型规模会出现“涌现”?</strong></p><p>我们在上文分析了大模型在哪些任务中出现了涌现现象,<strong>紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?</strong></p><p><strong>根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。</strong></p><p>在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。</p><p><img src=\"https://static.tigerbbs.com/bfdb5cf247c243f281e6ed0b1bc6a651\" alt=\"\"/><em>ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p>而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。</p><p><img src=\"https://static.tigerbbs.com/4bd1c9fa45af4c5f808859a03a62a5c7\" alt=\"\"/>CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</p><p><strong>所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。</strong>例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。</p><p><strong>那么能不能把模型做小?</strong>我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。</p><p><strong>目前小模型的代表之一是DeepMind的Chinchilla,</strong>它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。</p><p>Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。</p><p>于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。</p><p><img src=\"https://static.tigerbbs.com/a507583f14a94d0790c80cc3ac982593\" alt=\"\"/><em>各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language Models</em></p><p><img src=\"https://static.tigerbbs.com/e3ca672bf7ad4cf7a24a55ed565a5999\" alt=\"\"/>Chinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。</p><p>如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。</p><p><img src=\"https://static.tigerbbs.com/b8c2c23a300a4c6db65b6ea1b077aa8b\" alt=\"\"/>图片来源:DeepMind:Training Compute-Optimal Language Models</p><p>在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。</p><p><strong>这里就涉及到了一个核心问题——算力如何分配?</strong>我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。<strong>那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?</strong></p><p>最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。</p><p>OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。<strong>OpenAI的结论是优先增加模型参数,然后才是训练数据量。</strong>假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。</p><p>DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,<strong>DeepMind认为训练数据量也很重要,不亚于模型参数。</strong></p><p>基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。</p><p><strong>另一个“小”模型的例子是Meta推出的LLaMA。</strong>LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。</p><p>从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。</p><p><strong>Meta更进一步的是,把推理成本也纳入进来。</strong>Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。</p><p>所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。</p><p>那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?</p><p><img src=\"https://static.tigerbbs.com/6f3802584c6e43d0a0706d5ecbb28c89\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p><img src=\"https://static.tigerbbs.com/be53cf0e950d45e6a82643a137819d78\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p>上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,<strong>这证明了更小的参数规模,也能产生涌现能力。</strong></p><p>以上这些研究都很有意义,<strong>我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。</strong></p><p><strong>那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。</strong></p><p>一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。</p><p>涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。</p><p>ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。</p><p>微软在GPT-4论文中写道:</p><ul style=\"\"><li><p><em>我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?</em><strong><em>为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?</em></strong></p></li><li><p><em>这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,</em><strong><em>关键方向就是对大语言模型涌现现象的持续研究。</em></strong></p></li><li><p><em>阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,</em><strong><em>这个挑战在今天已经突然变得重要和紧迫。</em></strong></p></li></ul><p>1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:</p><ul style=\"\"><li><p><em>机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;</em></p></li><li><p><em>在不违反第一定律的前提下,机器人必须服从人给予它的命令;</em></p></li><li><p><em>机器人在不违反第一、第二定律的情况下要尽力保护自己。</em></p></li></ul><p>当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。<strong>我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。</strong></p><p>目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。</p><p><strong>在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。</strong></p><p>纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。<strong>如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。</strong></p><p><img src=\"https://static.tigerbbs.com/fe5a376e68b64e5d82e70cf015a9cc38\" alt=\"\"/><em>Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。</em></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/3ffb32e91439706901d0645b2679c546","relate_stocks":{},"source_url":"http://mp.weixin.qq.com/s?__biz=MzA3ODk5OTEzOA==&mid=2962169825&idx=1&sn=3276f4e2b09823f300f7b15d786d6d74&chksm=aac184ec9db60dfa4f484bb6dc70b1a85d83baccea9dd642a64ab4301878ba28d854c4ebc530&scene=0#rd","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2385143611","content_text":"最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:董事会到底为什么要突然驱逐Sam Altman?最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工智能发现可能威胁到人类,这个项目被称为“Q*”(Q-star)。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:谁能被信任,来打开AI这个潘多拉魔盒?AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。在这起Open AI的风波背后,这个问题依然值得我们重视。随着语言模型规模的增长,新能力突然出现;图片来源:Google“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。”70多年后,这则恐怖的论断成真了。大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。微软在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……搞清楚这些问题其实非常重要,短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者特斯拉的机器人结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,在文末的注释中会列出这些论文的简介与链接,供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:● 大语言模型令人震惊的理解和推理能力● 当我们加大模型规模时,出现的三种神奇表现● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)● 多大的模型规模会出现“涌现”?● (附录:本文的论文注释与引用)大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models1、大语言模型令人震惊的理解和推理能力最近几个月里,硅谷一夜之间出现了几百家应用层的创业公司,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。下面我们先列举一些GPT-4所表现出来的、令人震惊的理解和推理能力:这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。给GPT-4提问:你能解释一下作者想表达什么吗?GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?Google在2022年做了一项重要的基准测试。研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。还有一些对大语言模型参数规模与性能之间联系的研究,比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。2、当我们加大模型规模时,出现的三种神奇表现在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research当我们不断加大模型规模时,大语言模型出现了三种表现:第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。另外,各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。图片来源:Transformer Feed-Forward Layers Are Key-Value Memories能证明大语言模型是有知识沉淀的,其实非常重要。OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models在上一步的基础上,第二类就是涌现出新能力。具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models第三种表现是有些情况下,能力效果会呈现U型曲线。这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。图片来源:Google:Inverse scaling can become U-shaped如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。3、两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。ICL对大语言模型能否泛化非常重要。在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。我们在上文分析过,通过海量数据训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。图片来源:OpenAI:GPT-4 Technical Report一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models不过目前大模型在复杂推理方面仍然有局限性。无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。4、多大的模型规模会出现“涌现”?我们在上文分析了大模型在哪些任务中出现了涌现现象,紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。那么能不能把模型做小?我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。目前小模型的代表之一是DeepMind的Chinchilla,它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language ModelsChinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。图片来源:DeepMind:Training Compute-Optimal Language Models在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。这里就涉及到了一个核心问题——算力如何分配?我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。OpenAI的结论是优先增加模型参数,然后才是训练数据量。假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,DeepMind认为训练数据量也很重要,不亚于模型参数。基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。另一个“小”模型的例子是Meta推出的LLaMA。LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个英伟达消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。Meta更进一步的是,把推理成本也纳入进来。Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,这证明了更小的参数规模,也能产生涌现能力。以上这些研究都很有意义,我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。微软在GPT-4论文中写道:我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,关键方向就是对大语言模型涌现现象的持续研究。阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,这个挑战在今天已经突然变得重要和紧迫。1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;在不违反第一定律的前提下,机器人必须服从人给予它的命令;机器人在不违反第一、第二定律的情况下要尽力保护自己。当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。","news_type":1},"isVote":1,"tweetType":1,"viewCount":883,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":233944945570000,"gmtCreate":1698124219971,"gmtModify":1698124221672,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"打击电诈人人有责","listText":"打击电诈人人有责","text":"打击电诈人人有责","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":4,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/233944945570000","repostId":"1156553549","repostType":2,"repost":{"id":"1156553549","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1698123925,"share":"https://www.laohu8.com/m/news/1156553549?lang=&edition=full","pubTime":"2023-10-24 13:05","market":"sh","language":"zh","title":"中国经济时报刊文:为终将到来的新一轮牛市做好准备","url":"https://stock-news.laohu8.com/highlight/detail?id=1156553549","media":"老虎资讯综合","summary":"多数熊市的最大回撤约40%多,与此轮熊市的最大跌幅已接近。","content":"<html><head></head><body><p>据中国经济时报,联博资深市场策略师黄森玮在接受中国经济时报记者采访时表示,自沪深300指数成立以来,A股经历过5次的主要熊市(包含此轮熊市),熊市大约每2至3年就会发生一次,多数熊市的最大回撤约40%多,与此轮熊市的最大跌幅已接近,<strong>此时应思考的是如何为终将到来的新一轮牛市做好准备。</strong></p><p>2007年10月至2008年11月A股曾出现过逾70%的跌幅,黄森玮认为,此轮重蹈覆辙的概率不高。原因是当时有美国次贷危机引发的全球性金融海啸的影响,进而加重了A股的跌幅。当时美国股市的最大回撤达到57%,美国经济陷入严重衰退。如今,美国经济不但没有衰退,反而还有景气过热导致的通胀问题。况且,即使未来美国经济出现衰退,美联储已将基准利率调升至5.25%—5.50%,代表有足够的降息空间来刺激经济。因此,在短期内没有全球系统性危机的前提下,A股重现2008年大熊市的概率不高。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9c73b65896c93623f6886c144be4aa46\" title=\"\" tg-width=\"841\" tg-height=\"852\"/></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0dd6a59f49dbc32d9cd8b5f2b2fca6ad\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>中国经济时报刊文:为终将到来的新一轮牛市做好准备</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n中国经济时报刊文:为终将到来的新一轮牛市做好准备\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2023-10-24 13:05</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>据中国经济时报,联博资深市场策略师黄森玮在接受中国经济时报记者采访时表示,自沪深300指数成立以来,A股经历过5次的主要熊市(包含此轮熊市),熊市大约每2至3年就会发生一次,多数熊市的最大回撤约40%多,与此轮熊市的最大跌幅已接近,<strong>此时应思考的是如何为终将到来的新一轮牛市做好准备。</strong></p><p>2007年10月至2008年11月A股曾出现过逾70%的跌幅,黄森玮认为,此轮重蹈覆辙的概率不高。原因是当时有美国次贷危机引发的全球性金融海啸的影响,进而加重了A股的跌幅。当时美国股市的最大回撤达到57%,美国经济陷入严重衰退。如今,美国经济不但没有衰退,反而还有景气过热导致的通胀问题。况且,即使未来美国经济出现衰退,美联储已将基准利率调升至5.25%—5.50%,代表有足够的降息空间来刺激经济。因此,在短期内没有全球系统性危机的前提下,A股重现2008年大熊市的概率不高。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9c73b65896c93623f6886c144be4aa46\" title=\"\" tg-width=\"841\" tg-height=\"852\"/></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0dd6a59f49dbc32d9cd8b5f2b2fca6ad\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/fb2ed00ac5de2097917e40947bc4a36a","relate_stocks":{"000001.SH":"上证指数"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1156553549","content_text":"据中国经济时报,联博资深市场策略师黄森玮在接受中国经济时报记者采访时表示,自沪深300指数成立以来,A股经历过5次的主要熊市(包含此轮熊市),熊市大约每2至3年就会发生一次,多数熊市的最大回撤约40%多,与此轮熊市的最大跌幅已接近,此时应思考的是如何为终将到来的新一轮牛市做好准备。2007年10月至2008年11月A股曾出现过逾70%的跌幅,黄森玮认为,此轮重蹈覆辙的概率不高。原因是当时有美国次贷危机引发的全球性金融海啸的影响,进而加重了A股的跌幅。当时美国股市的最大回撤达到57%,美国经济陷入严重衰退。如今,美国经济不但没有衰退,反而还有景气过热导致的通胀问题。况且,即使未来美国经济出现衰退,美联储已将基准利率调升至5.25%—5.50%,代表有足够的降息空间来刺激经济。因此,在短期内没有全球系统性危机的前提下,A股重现2008年大熊市的概率不高。","news_type":1},"isVote":1,"tweetType":1,"viewCount":894,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":682145865,"gmtCreate":1658860713561,"gmtModify":1658860713561,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/EM\">$怪兽充电(EM)$</a>吞金兽","listText":"<a href=\"https://laohu8.com/S/EM\">$怪兽充电(EM)$</a>吞金兽","text":"$怪兽充电(EM)$吞金兽","images":[{"img":"https://static.tigerbbs.com/95f33f29374a9273084b66d6f3500c8c","width":"1242","height":"2688"},{"img":"https://static.tigerbbs.com/81a5d82c2340f05ff8a4fb83a4e565d0","width":"1242","height":"2688"},{"img":"https://static.tigerbbs.com/01d2a821c3fb2795919827da6469681b","width":"1242","height":"2688"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/682145865","isVote":1,"tweetType":1,"viewCount":1944,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":3,"langContent":"CN","totalScore":0},{"id":686772237,"gmtCreate":1658531904334,"gmtModify":1658531904334,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/SNAP\">$Snap Inc(SNAP)$</a>tiktok在,其他app一路向南[开心]","listText":"<a href=\"https://laohu8.com/S/SNAP\">$Snap Inc(SNAP)$</a>tiktok在,其他app一路向南[开心]","text":"$Snap Inc(SNAP)$tiktok在,其他app一路向南[开心]","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/686772237","isVote":1,"tweetType":1,"viewCount":1869,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":686722124,"gmtCreate":1658499928569,"gmtModify":1703748892487,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/TSLA\">$特斯拉(TSLA)$</a>特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!","listText":"<a href=\"https://laohu8.com/S/TSLA\">$特斯拉(TSLA)$</a>特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!","text":"$特斯拉(TSLA)$特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":10,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/686722124","isVote":1,"tweetType":1,"viewCount":3847,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":686761388,"gmtCreate":1658497050447,"gmtModify":1703748869633,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/FFIE\">$Faraday Future(FFIE)$</a>疯了吗?只要谈好一家中国生产商还是狠有想象力的","listText":"<a href=\"https://laohu8.com/S/FFIE\">$Faraday Future(FFIE)$</a>疯了吗?只要谈好一家中国生产商还是狠有想象力的","text":"$Faraday Future(FFIE)$疯了吗?只要谈好一家中国生产商还是狠有想象力的","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/686761388","isVote":1,"tweetType":1,"viewCount":1635,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":681196863,"gmtCreate":1656720658256,"gmtModify":1704865688532,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!","listText":"中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!","text":"中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/681196863","repostId":"1197948330","repostType":2,"repost":{"id":"1197948330","kind":"news","pubTimestamp":1656639595,"share":"https://www.laohu8.com/m/news/1197948330?lang=&edition=full","pubTime":"2022-07-01 09:39","market":"us","language":"zh","title":"一个时代的终结:Naspers、软银各自从腾讯、阿里抽身","url":"https://stock-news.laohu8.com/highlight/detail?id=1197948330","media":"好看商业","summary":"中国两大互联网巨头疯狂增长的黄金20年走向尾声。","content":"<html><head></head><body><blockquote>当中国两大互联网巨头疯狂增长的黄金20年走向尾声,Naspers和软银也到了抽身的时候。减持增值潜力小的资产,去追逐下一个腾讯、阿里成为他们的必然选择。</blockquote><p>一则公告打掉腾讯4400亿港元市值。</p><p>这个“砸盘”方叫Naspers。</p><p>6月27日午间,<a href=\"https://laohu8.com/S/00700\">腾讯控股</a>公告称,其主要股东Prosus(该公司由Naspers拥有大多数股权)及Naspers将开启一项长期、开放式的回购计划,并将有序地以场内出售Naspers集团所持腾讯控股的方式筹集回购资金。</p><p>Naspers每天出售的腾讯股份数预计占腾讯日均成交量的一小部分。例如,若Naspers集团在过去三个月内在符合欧洲监管限制的前提下执行回购计划,每天出售的腾讯股份平均不会超过腾讯日均成交量的3%-5%。</p><p>简单来说,就是Naspers及Prosus要回购自家股票,但手里没钱,需要卖掉持有的部分腾讯股票筹集资金。</p><p>公告一出,腾讯在午后开盘一分钟即由涨4.16%转跌0.68%,市值瞬间蒸发约2000亿港元。腾讯当天以跌超1.5%收盘。</p><p>6月28日-30日,腾讯股价继续低开低走。截至6月30日收盘,腾讯市值已较Naspers公告前的高点蒸发超4400亿港元。</p><p><img src=\"https://static.tigerbbs.com/8fe858de69786985fa70d6ed7e52a970\" tg-width=\"840\" tg-height=\"470\" referrerpolicy=\"no-referrer\"/></p><p>Naspers接下来的持续减持将对腾讯股价造成多大和多久的影响目前尚未可知。</p><p>Naspers在公告中说,他们启动股票回购计划的目的是提升Naspers及Prosus的资产净值。目前两公司的资产净值是被低估的。</p><p>这项回购计划是无限期的,回购计划的主要资金来源就是减持腾讯股票。</p><p>Naspers称,只要他们的净资产价值持续在低位运行,他们就会持续回购;这意味着,他们对腾讯的减持也可能是无限期的。</p><p>在股价低迷时,上市公司通常会采用回购的方式来提振股价,维护股东利益。</p><p>近年,<a href=\"https://laohu8.com/S/BABA\">阿里巴巴</a>大股东软银也在持续回购股票。继2020年启动创纪录的2.5万亿日元回购计划后,2021年11月,软银再次宣布一项1万亿日元(约88亿美元)的股票回购计划。</p><p>将所持阿里巴巴的股票陆续变现,是软银为股票回购筹资,以及降低负债、获得流动性的一个重要途径。</p><p>值得一提的是,长期以来,Naspers和软银分别是中国两大互联网巨头腾讯、阿里的第一大股东;他们均在本世纪初下注中国的互联网产业,至今持有腾讯、阿里的时间均超过20年,也都获得了几千倍的回报,在投资界被奉为神话。</p><p>当中国两大互联网巨头疯狂增长的黄金20年走向尾声,Naspers和软银也到了抽身的时候。</p><p>加上全球宏观经济和地缘政治因素导致整个互联网和科技行业进入低谷,资产价值大幅缩水,减持增值潜力小的资产,去追逐下一个腾讯、阿里成为他们的必然选择。</p><p><b>腾讯、阿里成大股东“提款机”</b></p><p>2001年,Naspers投资3200万美元,购入腾讯46.5%股权。即便是腾讯目前市值已较历史高点腰斩,Naspers 在两次减持后在腾讯的持股仍价值 1262 亿美元。</p><p>这笔投资,Naspers 至今持有超20年,总回报超 4731 倍。</p><p>2000年、2004年,软银集团曾先后向阿里巴巴投资2000万美元和6000万美元的投资,多轮调整后最高持有阿里巴巴34.4%的股票。至今持有超20年,总回报超2000倍。</p><p>今天,腾讯、阿里历史上最稳定的大股东如今到了摘果子的时候——Naspers和软银都在陆续减持、离场。</p><p>最新的减持公告已经是Naspers针对腾讯的第三次减持计划。</p><p><img src=\"https://static.tigerbbs.com/d6126e1bbc60c6b95e23a58e231b3192\" tg-width=\"780\" tg-height=\"318\" referrerpolicy=\"no-referrer\"/></p><p>来源:港交所</p><p>Naspers最早一次减持腾讯发生在2018年3月。当时,它以405港元/股的价格减持了 189978300股腾讯股票,约占腾讯2% 的股份,共套现约 106 亿美元。</p><p>这次减持后,Naspers还持有腾讯31.17%的股份。</p><p>2019年,Naspers进行了分拆,将其国际互联网资产,包括腾讯、Flipkart、俄罗斯的Mail.ru、携程等都装入旗下控股公司Prosus。Prosus于2019年9月在荷兰阿姆斯特丹证券交易所上市。</p><p>那次分拆后,Naspers在腾讯持有的31.17%股权全部由Prosus接手。</p><p>2021年4月,Prosus又通过其子公司MIH TC Holdings Limited减持191,890,000股腾讯股票,约等于腾讯已发行股本的2%,减持价595港元/股,这次减持共套现146亿美元。</p><p>根据Refinitiv的数据,这是全球截至当时最大的股票大宗交易。这次减持后,Prosus在腾讯的持股比例降至28.86%。</p><p>为了安抚市场情绪并照顾腾讯的感受,Naspers对两次减持都给出了解释。它称,首次减持所得主要用于在不同地区扩大业务,以及未来的收购整合;第二次减持的目的是增加财务灵活性,包括进一步对外投资和补充资金。每次减持后,它都承诺,未来三年内不再出售腾讯股票。</p><p>可惜,它食言了。2022年6月27日,它发布了将再次减持腾讯的公告,而且是无限期减持。</p><p>毕竟,减持一次就有大笔资金到账的感受太爽了。通过两次减持腾讯,Naspers和Prosus共获利约250亿美元。</p><p>另外,去年底,腾讯“分红式”减持<a href=\"https://laohu8.com/S/JD\">京东</a>,将持有的4.6亿京东A类普通股(总价值约1277亿港元)派发给符合条件的股东。</p><p>通过此次股权分配,Prosus通过其子公司MIH TC Holdings获得约4%的京东股份。6月24日,Naspers完成出售这部分京东股份,获利36.7亿美元。</p><p>腾讯市值最高时接近万亿美元,多次问鼎中国市值最高的公司以及全球市值最高的社交媒体公司。</p><p>对于Naspers和Prosus来说,腾讯犹如安全底座,也是有资金需求时的提款机。即便腾讯今天的市值已经较最高点缩水一半,它仍然是大股东Naspers巨大的“金矿”。</p><p>近年来,阿里巴巴之于大股东软银,更是扮演了安全底座的角色。软银每逢遭遇困境,几乎必然减持阿里巴巴,获得“救命钱”。</p><p>2016年,软银在持有阿里巴巴的第16个年头,首次减持阿里巴巴,当时宣布将出售至少价值79亿美元的股票,目的是减少公司负债,增加流动性。</p><p>据公开信息,软银当时一些投资出现失误,资产市值大幅缩水,公司总债务高达1082亿美元。</p><p>首次减持后,软银在阿里巴巴的持股比例从32%降至约28%。</p><p>2019年6月,软银再次减持阿里7300万股美国存托股票(ADS),获得约1.2万亿日元(约合111.2亿美元)的税前利润。</p><p>截至2020年3月31日的2019财年财报显示,软银集团归属母公司的净亏损高达9615.76亿日元,一个主要原因是愿景基金投资巨亏。</p><p>2020年3月底,软银表示,将从阿里套现140亿美元,减持数量相当于其持有阿里股份的10%。</p><p>在2021财年(2021年4月1日-2022年3月31日),软银集团归属于母公司股东的净亏损达到1.7万亿日元(约合人民币897.6亿元),创其史上最大亏损纪录。</p><p>软银是否继续减持阿里巴巴获取救命钱成为市场关注的焦点。</p><p>投行富瑞在研究报告中提到,软银在2022年需要400亿—450亿美元现金,来为其私募股权投资和回购提供资金,有可能通过出售资产而非举债来筹资,减持阿里巴巴是筹资的选项之一。</p><p>富瑞估计,软银在2021年第四季度或已经减持了阿里巴巴2000万股股票。</p><p>据标普的数据,目前软银在阿里巴巴持股24.98%,仍为第一大股东。</p><p><b>Naspers、软银的艰难时刻</b></p><p>作为腾讯过去20多年的第一大股东,Naspers在中国创投界低调又神秘。</p><p>实际上,它在全球互联和科技领域都有着举足轻重的地位,诸多独角兽背后都有他们的身影。</p><p>“南非报业”是Naspers的中文译名,这家公司成立于1915年,总部位于南非开普敦。它起初以传统的印刷媒体为主业,旗下曾有60家消费者报刊,包括销量最高的报纸《Daily Sun》。</p><p>经过多年发展,今天的Naspers已经是一个体量庞大的投资帝国。其投资的业务涉及:电子商务(包括分类信息、食品外卖、支付与金融科技、教育科技、电商服务等)、社交与互联网平台,媒体等多个领域。</p><p>比如在外卖配送领域,Delivery Hero、iFood、Swiggy都是Naspers投资的项目。</p><p>Delivery Hero总部位于德国,是全球外卖巨头之一,目前市值84亿欧元。Swiggy是印度最大的外卖平台,今年初媒体报道称其最新估值为107亿美元。iFood总部在巴西,目前是南美洲最大的外卖应用。Naspers通过Prosus在Ifood 持股54.68%。</p><p>但在2022财年(2021.4.1-2022.3.31),Naspers遭遇艰难时刻。</p><p>“持续不断的全球性混乱和不确定性,导致经济环境持续动荡。”Naspers在2022财年财报中开门见山地说。</p><p><img src=\"https://static.tigerbbs.com/e314662d15020b0308716d51e5926bc4\" tg-width=\"1080\" tg-height=\"222\" referrerpolicy=\"no-referrer\"/></p><p>来源:Naspers 2022财年财报</p><p>2022财年,以经济利益计,Naspers集团营收同比增长24%至367亿美元;但增速低于上年同期的33.9%。</p><p>营业利润方面,Naspers涉及的9大业务板块中,2022财年有6个出现不同程度的经营亏损,亏损总额达13.37亿美元。</p><p>其中,食品外卖板块经营亏损最高,达到7.24亿美元,亏损额同比上年翻倍。而食品外卖所属的电商业务板块经营亏损达到11.2亿美元。</p><p>2022财年,Naspers集团虽然经营利润同比下滑10%,但仍然实现50亿美元的经营利润。这背后,主要是靠腾讯的贡献——高达62.73亿美元。</p><p><img src=\"https://static.tigerbbs.com/c7a2403cb1df117138c8fb30d4c0d762\" tg-width=\"1080\" tg-height=\"782\" referrerpolicy=\"no-referrer\"/></p><p>Naspers在财报中提到,虽然通过投资组合实现营收的强劲增长,但就像其它许多科技公司一样,Naspers集团面临重大的宏观经济和地缘政治逆风,这导致2022财年下半年资本市场出现剧烈波动。</p><p>俄乌战争、通货膨胀以及不断提升的利率都带来资本成本和不确定性增加。近几个月,随着风险偏好大幅降低,全球科技和互联网领域的公司估值出现显著下滑。</p><p>这些因素导致其资产净值遭受多年来首次下滑,Naspers认为,其总资产的折价已经“跌到无法接受的程度”。</p><p>截至6月29日,Naspers在约翰内斯堡证券交易所的市值只有约300亿美元,而其资产净值为707亿美元,折价超过57%。</p><p><img src=\"https://static.tigerbbs.com/faa9d78fe2b0817af6ee9f095eee529f\" tg-width=\"1080\" tg-height=\"844\" referrerpolicy=\"no-referrer\"/></p><p>Naspers在约翰内斯堡交易所的股价走势(货币:ZAR)</p><p>Prosus的市值同样较其资产净值出现大幅折价。截至2022年6月29日,其资产净值为1577亿欧元,截至6月29日,其在荷兰证券交易所的总市值仅为883.4欧元,折价幅度接近44%。</p><p><img src=\"https://static.tigerbbs.com/214ead2647c0dadadb621567028b6423\" tg-width=\"1080\" tg-height=\"849\" referrerpolicy=\"no-referrer\"/></p><p>Prosus在阿姆斯特丹交易所的股价走势(货币:EUR)</p><p>Naspers称,采取积极的措施减少折价是他们的优先选择。</p><p>相对于Naspers的低调和神秘感,孙正义及其治下的软银集团在中国创投界人尽皆知。</p><p>孙正义曾被称为“投资大帝”,他24岁时即1981年创立软银,并于1994年将其送到东京交易所上市。经过多年发展,软银集团逐渐成为一家综合性的投资公司,主要致力网络、电信相关的投资。</p><p>18岁赚到第一桶金100万;入股<a href=\"https://laohu8.com/S/YHOO\">雅虎</a>,最高时回报破100倍;投资阿里巴巴,最高回报2000倍。这些都是孙正义的战绩。</p><p>2017年他发起成立的千亿愿景基金,豪赌科技股,又将其“赌徒”风格暴露无疑,最终也将他拉下神坛,将软银集团拖入亏损的深渊。</p><p>2019财年(截至2020.3.31),软银集团经营亏损1.35万亿日元(约合875亿元人民币),净亏损7500亿日元。</p><p>这也是软银十多年来首次出现财年亏损。从那之后,似乎孙正义和软银集团的好运气都被耗光了,软银的财务表现每况愈下。</p><p>2021财年(截至2022.3.31),软银集团陷入史无前例的糟糕境地:在该财年,软银集团归属于母公司股东的净亏损达到1.7万亿日元(约合人民币897.6亿元)。</p><p>这是软银集团四十年历史上最严重的一次亏损,也是其旗下基金成立以来历史最大亏损。</p><p>愿景基金是软银集团2021财年亏损的罪魁祸首。期间,愿景基金的亏损达2.64万亿日元(约合人民币13934亿元)。</p><p>在2021年报发布后孙正义表示,因为新冠疫情和俄乌冲突,世界开始进入“混乱模式”,他强调,如今已是软银采取防御性举措的时候,而不是曾经的激进。</p><p>在21世纪初,Naspers和软银都下注于微时,在腾讯、阿里还很若小时便大胆投资,并足够贪婪和足够有耐心。他们也因此创造了互联网中国互联网史上持有时间最长、回报最高的两笔投资。</p><p>20年后的今天,一切都变了。Naspers和软银自身也都陷入困境,有点泥菩萨过河的样子。</p><p><b>疯长的20年,难再现</b></p><p>过去20年,是Naspers与腾讯,软银与阿里巴巴互相成就的20年。</p><p>在Naspers集团,腾讯长期担当营收和利润的最大贡献者、资产顶梁柱的角色;阿里巴巴长期在软银集团的资产总和中占到半壁江山。</p><p>经过20年的疯狂增长之后,中国互联网从消费互联网进入产业互联网阶段,监管对互联网巨头的整治和管理也变得更加严格。互联网行业的增速开始慢下来,腾讯、阿里这样的体量之下,降速尤其明显。</p><p><img src=\"https://static.tigerbbs.com/c5349699ba33ce8702a61435867dbf90\" tg-width=\"1008\" tg-height=\"620\" referrerpolicy=\"no-referrer\"/></p><p>2021年Q4,腾讯实现总营收1442亿元,同比增长7.9%,创下腾讯自2004 年上市以来最慢的收入增长。</p><p>2022年Q1,腾讯营收增速进一步放缓,同比增幅只有0.1%,增长几乎停滞。</p><p>盈利能力方面,2021年Q3以来的连续三个财季,腾讯净利润(Non-IFRS)同比负增长,这是腾讯过去至少10年内不曾出现状况。</p><p>阿里也告别了过去的高增长。</p><p>2022财年第三季度(自然年2021.Q4),阿里巴巴营收同比增长10%,低于市场预期。其中,该季度淘宝天猫的客户管理收入同比增长—1%,这在阿里历史上可以说史无前例。</p><p>2022财年第四季度(自然年2022.Q1),阿里营收同比增长9%,季度营收的增速首次降到10%以下。</p><p>Naspers向来追逐高增长;孙正义更是被称为“十倍先生”,他们对于高速增长有着近乎疯狂的渴求。如今进入平稳期的腾讯、阿里,在增速上越来越无法匹配他们的口味。</p><p>Prosus在财报中提到,受监管和新冠疫情的影响,腾讯增速放缓并面临艰难的宏观经济环境。</p><p>据日经中文网报道,6月24日,孙正义在软银集团定期股东大会上表示,“虽然过去有段时间阿里巴巴在软银集团的股票资产中占一多半,但现在阿里巴巴的占比在20%左右。”</p><p>实际上,在过去一个财年,无论软银还是Naspers都有进行新的投资布局。</p><p>以Naspers为例,2022财年他们共投出去62亿美元,其中,部分用于增持现有投资的股权,还有部分用于投资那些未来有增值机会的领域。</p><p>Naspers称,为了在混乱的时点里找到航向,他们决定优先将资金用于支持已有业务发展和更谨慎的资产负债管理,保持充足的现金流。</p><p>而为这一切提供有力保障就是卖出腾讯。</p></body></html>","source":"lsy1622337641338","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>一个时代的终结:Naspers、软银各自从腾讯、阿里抽身</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n一个时代的终结:Naspers、软银各自从腾讯、阿里抽身\n</h2>\n\n<h4 class=\"meta\">\n\n\n2022-07-01 09:39 北京时间 <a href=https://mp.weixin.qq.com/s/QwDFf8WZoPQT-0rDlqZtiw><strong>好看商业</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>当中国两大互联网巨头疯狂增长的黄金20年走向尾声,Naspers和软银也到了抽身的时候。减持增值潜力小的资产,去追逐下一个腾讯、阿里成为他们的必然选择。一则公告打掉腾讯4400亿港元市值。这个“砸盘”方叫Naspers。6月27日午间,腾讯控股公告称,其主要股东Prosus(该公司由Naspers拥有大多数股权)及Naspers将开启一项长期、开放式的回购计划,并将有序地以场内出售Naspers...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/QwDFf8WZoPQT-0rDlqZtiw\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/e7799eeb7043b8caaf3d109c3b13109e","relate_stocks":{"00700":"腾讯控股","BABA":"阿里巴巴"},"source_url":"https://mp.weixin.qq.com/s/QwDFf8WZoPQT-0rDlqZtiw","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1197948330","content_text":"当中国两大互联网巨头疯狂增长的黄金20年走向尾声,Naspers和软银也到了抽身的时候。减持增值潜力小的资产,去追逐下一个腾讯、阿里成为他们的必然选择。一则公告打掉腾讯4400亿港元市值。这个“砸盘”方叫Naspers。6月27日午间,腾讯控股公告称,其主要股东Prosus(该公司由Naspers拥有大多数股权)及Naspers将开启一项长期、开放式的回购计划,并将有序地以场内出售Naspers集团所持腾讯控股的方式筹集回购资金。Naspers每天出售的腾讯股份数预计占腾讯日均成交量的一小部分。例如,若Naspers集团在过去三个月内在符合欧洲监管限制的前提下执行回购计划,每天出售的腾讯股份平均不会超过腾讯日均成交量的3%-5%。简单来说,就是Naspers及Prosus要回购自家股票,但手里没钱,需要卖掉持有的部分腾讯股票筹集资金。公告一出,腾讯在午后开盘一分钟即由涨4.16%转跌0.68%,市值瞬间蒸发约2000亿港元。腾讯当天以跌超1.5%收盘。6月28日-30日,腾讯股价继续低开低走。截至6月30日收盘,腾讯市值已较Naspers公告前的高点蒸发超4400亿港元。Naspers接下来的持续减持将对腾讯股价造成多大和多久的影响目前尚未可知。Naspers在公告中说,他们启动股票回购计划的目的是提升Naspers及Prosus的资产净值。目前两公司的资产净值是被低估的。这项回购计划是无限期的,回购计划的主要资金来源就是减持腾讯股票。Naspers称,只要他们的净资产价值持续在低位运行,他们就会持续回购;这意味着,他们对腾讯的减持也可能是无限期的。在股价低迷时,上市公司通常会采用回购的方式来提振股价,维护股东利益。近年,阿里巴巴大股东软银也在持续回购股票。继2020年启动创纪录的2.5万亿日元回购计划后,2021年11月,软银再次宣布一项1万亿日元(约88亿美元)的股票回购计划。将所持阿里巴巴的股票陆续变现,是软银为股票回购筹资,以及降低负债、获得流动性的一个重要途径。值得一提的是,长期以来,Naspers和软银分别是中国两大互联网巨头腾讯、阿里的第一大股东;他们均在本世纪初下注中国的互联网产业,至今持有腾讯、阿里的时间均超过20年,也都获得了几千倍的回报,在投资界被奉为神话。当中国两大互联网巨头疯狂增长的黄金20年走向尾声,Naspers和软银也到了抽身的时候。加上全球宏观经济和地缘政治因素导致整个互联网和科技行业进入低谷,资产价值大幅缩水,减持增值潜力小的资产,去追逐下一个腾讯、阿里成为他们的必然选择。腾讯、阿里成大股东“提款机”2001年,Naspers投资3200万美元,购入腾讯46.5%股权。即便是腾讯目前市值已较历史高点腰斩,Naspers 在两次减持后在腾讯的持股仍价值 1262 亿美元。这笔投资,Naspers 至今持有超20年,总回报超 4731 倍。2000年、2004年,软银集团曾先后向阿里巴巴投资2000万美元和6000万美元的投资,多轮调整后最高持有阿里巴巴34.4%的股票。至今持有超20年,总回报超2000倍。今天,腾讯、阿里历史上最稳定的大股东如今到了摘果子的时候——Naspers和软银都在陆续减持、离场。最新的减持公告已经是Naspers针对腾讯的第三次减持计划。来源:港交所Naspers最早一次减持腾讯发生在2018年3月。当时,它以405港元/股的价格减持了 189978300股腾讯股票,约占腾讯2% 的股份,共套现约 106 亿美元。这次减持后,Naspers还持有腾讯31.17%的股份。2019年,Naspers进行了分拆,将其国际互联网资产,包括腾讯、Flipkart、俄罗斯的Mail.ru、携程等都装入旗下控股公司Prosus。Prosus于2019年9月在荷兰阿姆斯特丹证券交易所上市。那次分拆后,Naspers在腾讯持有的31.17%股权全部由Prosus接手。2021年4月,Prosus又通过其子公司MIH TC Holdings Limited减持191,890,000股腾讯股票,约等于腾讯已发行股本的2%,减持价595港元/股,这次减持共套现146亿美元。根据Refinitiv的数据,这是全球截至当时最大的股票大宗交易。这次减持后,Prosus在腾讯的持股比例降至28.86%。为了安抚市场情绪并照顾腾讯的感受,Naspers对两次减持都给出了解释。它称,首次减持所得主要用于在不同地区扩大业务,以及未来的收购整合;第二次减持的目的是增加财务灵活性,包括进一步对外投资和补充资金。每次减持后,它都承诺,未来三年内不再出售腾讯股票。可惜,它食言了。2022年6月27日,它发布了将再次减持腾讯的公告,而且是无限期减持。毕竟,减持一次就有大笔资金到账的感受太爽了。通过两次减持腾讯,Naspers和Prosus共获利约250亿美元。另外,去年底,腾讯“分红式”减持京东,将持有的4.6亿京东A类普通股(总价值约1277亿港元)派发给符合条件的股东。通过此次股权分配,Prosus通过其子公司MIH TC Holdings获得约4%的京东股份。6月24日,Naspers完成出售这部分京东股份,获利36.7亿美元。腾讯市值最高时接近万亿美元,多次问鼎中国市值最高的公司以及全球市值最高的社交媒体公司。对于Naspers和Prosus来说,腾讯犹如安全底座,也是有资金需求时的提款机。即便腾讯今天的市值已经较最高点缩水一半,它仍然是大股东Naspers巨大的“金矿”。近年来,阿里巴巴之于大股东软银,更是扮演了安全底座的角色。软银每逢遭遇困境,几乎必然减持阿里巴巴,获得“救命钱”。2016年,软银在持有阿里巴巴的第16个年头,首次减持阿里巴巴,当时宣布将出售至少价值79亿美元的股票,目的是减少公司负债,增加流动性。据公开信息,软银当时一些投资出现失误,资产市值大幅缩水,公司总债务高达1082亿美元。首次减持后,软银在阿里巴巴的持股比例从32%降至约28%。2019年6月,软银再次减持阿里7300万股美国存托股票(ADS),获得约1.2万亿日元(约合111.2亿美元)的税前利润。截至2020年3月31日的2019财年财报显示,软银集团归属母公司的净亏损高达9615.76亿日元,一个主要原因是愿景基金投资巨亏。2020年3月底,软银表示,将从阿里套现140亿美元,减持数量相当于其持有阿里股份的10%。在2021财年(2021年4月1日-2022年3月31日),软银集团归属于母公司股东的净亏损达到1.7万亿日元(约合人民币897.6亿元),创其史上最大亏损纪录。软银是否继续减持阿里巴巴获取救命钱成为市场关注的焦点。投行富瑞在研究报告中提到,软银在2022年需要400亿—450亿美元现金,来为其私募股权投资和回购提供资金,有可能通过出售资产而非举债来筹资,减持阿里巴巴是筹资的选项之一。富瑞估计,软银在2021年第四季度或已经减持了阿里巴巴2000万股股票。据标普的数据,目前软银在阿里巴巴持股24.98%,仍为第一大股东。Naspers、软银的艰难时刻作为腾讯过去20多年的第一大股东,Naspers在中国创投界低调又神秘。实际上,它在全球互联和科技领域都有着举足轻重的地位,诸多独角兽背后都有他们的身影。“南非报业”是Naspers的中文译名,这家公司成立于1915年,总部位于南非开普敦。它起初以传统的印刷媒体为主业,旗下曾有60家消费者报刊,包括销量最高的报纸《Daily Sun》。经过多年发展,今天的Naspers已经是一个体量庞大的投资帝国。其投资的业务涉及:电子商务(包括分类信息、食品外卖、支付与金融科技、教育科技、电商服务等)、社交与互联网平台,媒体等多个领域。比如在外卖配送领域,Delivery Hero、iFood、Swiggy都是Naspers投资的项目。Delivery Hero总部位于德国,是全球外卖巨头之一,目前市值84亿欧元。Swiggy是印度最大的外卖平台,今年初媒体报道称其最新估值为107亿美元。iFood总部在巴西,目前是南美洲最大的外卖应用。Naspers通过Prosus在Ifood 持股54.68%。但在2022财年(2021.4.1-2022.3.31),Naspers遭遇艰难时刻。“持续不断的全球性混乱和不确定性,导致经济环境持续动荡。”Naspers在2022财年财报中开门见山地说。来源:Naspers 2022财年财报2022财年,以经济利益计,Naspers集团营收同比增长24%至367亿美元;但增速低于上年同期的33.9%。营业利润方面,Naspers涉及的9大业务板块中,2022财年有6个出现不同程度的经营亏损,亏损总额达13.37亿美元。其中,食品外卖板块经营亏损最高,达到7.24亿美元,亏损额同比上年翻倍。而食品外卖所属的电商业务板块经营亏损达到11.2亿美元。2022财年,Naspers集团虽然经营利润同比下滑10%,但仍然实现50亿美元的经营利润。这背后,主要是靠腾讯的贡献——高达62.73亿美元。Naspers在财报中提到,虽然通过投资组合实现营收的强劲增长,但就像其它许多科技公司一样,Naspers集团面临重大的宏观经济和地缘政治逆风,这导致2022财年下半年资本市场出现剧烈波动。俄乌战争、通货膨胀以及不断提升的利率都带来资本成本和不确定性增加。近几个月,随着风险偏好大幅降低,全球科技和互联网领域的公司估值出现显著下滑。这些因素导致其资产净值遭受多年来首次下滑,Naspers认为,其总资产的折价已经“跌到无法接受的程度”。截至6月29日,Naspers在约翰内斯堡证券交易所的市值只有约300亿美元,而其资产净值为707亿美元,折价超过57%。Naspers在约翰内斯堡交易所的股价走势(货币:ZAR)Prosus的市值同样较其资产净值出现大幅折价。截至2022年6月29日,其资产净值为1577亿欧元,截至6月29日,其在荷兰证券交易所的总市值仅为883.4欧元,折价幅度接近44%。Prosus在阿姆斯特丹交易所的股价走势(货币:EUR)Naspers称,采取积极的措施减少折价是他们的优先选择。相对于Naspers的低调和神秘感,孙正义及其治下的软银集团在中国创投界人尽皆知。孙正义曾被称为“投资大帝”,他24岁时即1981年创立软银,并于1994年将其送到东京交易所上市。经过多年发展,软银集团逐渐成为一家综合性的投资公司,主要致力网络、电信相关的投资。18岁赚到第一桶金100万;入股雅虎,最高时回报破100倍;投资阿里巴巴,最高回报2000倍。这些都是孙正义的战绩。2017年他发起成立的千亿愿景基金,豪赌科技股,又将其“赌徒”风格暴露无疑,最终也将他拉下神坛,将软银集团拖入亏损的深渊。2019财年(截至2020.3.31),软银集团经营亏损1.35万亿日元(约合875亿元人民币),净亏损7500亿日元。这也是软银十多年来首次出现财年亏损。从那之后,似乎孙正义和软银集团的好运气都被耗光了,软银的财务表现每况愈下。2021财年(截至2022.3.31),软银集团陷入史无前例的糟糕境地:在该财年,软银集团归属于母公司股东的净亏损达到1.7万亿日元(约合人民币897.6亿元)。这是软银集团四十年历史上最严重的一次亏损,也是其旗下基金成立以来历史最大亏损。愿景基金是软银集团2021财年亏损的罪魁祸首。期间,愿景基金的亏损达2.64万亿日元(约合人民币13934亿元)。在2021年报发布后孙正义表示,因为新冠疫情和俄乌冲突,世界开始进入“混乱模式”,他强调,如今已是软银采取防御性举措的时候,而不是曾经的激进。在21世纪初,Naspers和软银都下注于微时,在腾讯、阿里还很若小时便大胆投资,并足够贪婪和足够有耐心。他们也因此创造了互联网中国互联网史上持有时间最长、回报最高的两笔投资。20年后的今天,一切都变了。Naspers和软银自身也都陷入困境,有点泥菩萨过河的样子。疯长的20年,难再现过去20年,是Naspers与腾讯,软银与阿里巴巴互相成就的20年。在Naspers集团,腾讯长期担当营收和利润的最大贡献者、资产顶梁柱的角色;阿里巴巴长期在软银集团的资产总和中占到半壁江山。经过20年的疯狂增长之后,中国互联网从消费互联网进入产业互联网阶段,监管对互联网巨头的整治和管理也变得更加严格。互联网行业的增速开始慢下来,腾讯、阿里这样的体量之下,降速尤其明显。2021年Q4,腾讯实现总营收1442亿元,同比增长7.9%,创下腾讯自2004 年上市以来最慢的收入增长。2022年Q1,腾讯营收增速进一步放缓,同比增幅只有0.1%,增长几乎停滞。盈利能力方面,2021年Q3以来的连续三个财季,腾讯净利润(Non-IFRS)同比负增长,这是腾讯过去至少10年内不曾出现状况。阿里也告别了过去的高增长。2022财年第三季度(自然年2021.Q4),阿里巴巴营收同比增长10%,低于市场预期。其中,该季度淘宝天猫的客户管理收入同比增长—1%,这在阿里历史上可以说史无前例。2022财年第四季度(自然年2022.Q1),阿里营收同比增长9%,季度营收的增速首次降到10%以下。Naspers向来追逐高增长;孙正义更是被称为“十倍先生”,他们对于高速增长有着近乎疯狂的渴求。如今进入平稳期的腾讯、阿里,在增速上越来越无法匹配他们的口味。Prosus在财报中提到,受监管和新冠疫情的影响,腾讯增速放缓并面临艰难的宏观经济环境。据日经中文网报道,6月24日,孙正义在软银集团定期股东大会上表示,“虽然过去有段时间阿里巴巴在软银集团的股票资产中占一多半,但现在阿里巴巴的占比在20%左右。”实际上,在过去一个财年,无论软银还是Naspers都有进行新的投资布局。以Naspers为例,2022财年他们共投出去62亿美元,其中,部分用于增持现有投资的股权,还有部分用于投资那些未来有增值机会的领域。Naspers称,为了在混乱的时点里找到航向,他们决定优先将资金用于支持已有业务发展和更谨慎的资产负债管理,保持充足的现金流。而为这一切提供有力保障就是卖出腾讯。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1220,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":616846048,"gmtCreate":1651711696331,"gmtModify":1651711696331,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"学习俄罗斯","listText":"学习俄罗斯","text":"学习俄罗斯","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/616846048","repostId":"2233832396","repostType":2,"isVote":1,"tweetType":1,"viewCount":2169,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":696861986,"gmtCreate":1640664173786,"gmtModify":1640664173786,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"阿里只要不吃里扒外还是好公司","listText":"阿里只要不吃里扒外还是好公司","text":"阿里只要不吃里扒外还是好公司","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/696861986","repostId":"1139105558","repostType":2,"repost":{"id":"1139105558","kind":"news","pubTimestamp":1640662718,"share":"https://www.laohu8.com/m/news/1139105558?lang=&edition=full","pubTime":"2021-12-28 11:38","market":"hk","language":"zh","title":"达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制","url":"https://stock-news.laohu8.com/highlight/detail?id=1139105558","media":"钱江晚报","summary":"12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,","content":"<p>12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。<img src=\"https://static.tigerbbs.com/a8e5ac3a4e95033475f161b74cdaed86\" tg-width=\"641\" tg-height=\"1304\" referrerpolicy=\"no-referrer\">通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,覆盖159个领域,挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势,覆盖人工智能、芯片、计算和通信等领域。</p>\n<p>达摩院首先关注到可能激发全局变革、令人心潮澎湃的科学基础范式变化。数百年来科学研究主要使用实验科学和理论科学两大基础范式,如今可能迎来全新范式:AI for Science。通过将人工智能引入更底层的科研领域,处理多维、多模态的海量数据,科学家可能突破长久以来的研究瓶颈,抵达更远的无人区。</p>\n<p>人工智能本身也将迎来模式变革。超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,它解决了传统深度学习的应用碎片化难题,引发科研机构和企业重点投入。达摩院认为,因性能与能耗提升不成比例,大模型参数竞赛将进入冷静期,大小模型云边端协同进化会是未来趋势。</p>\n<p>变革还将发生在芯片领域。在电子芯片的制程竞赛接近终点的情况下,硅光芯片异军突起,融合光子和电子优势,突破摩尔定律限制,满足人工智能、云计算带来的爆发性算力需求。预计未来三年,硅光芯片将承载大型数据中心的高速信息传输。</p>\n<p>人工智能的应用进一步延伸,有望对国计民生产生影响。风电、光伏等绿色能源近年来快速发展,但由于波动性、随机性、反调峰等特征,带来了并网难、消纳率低等问题。达摩院认为,AI可通过精准的计算和协调能力,成为电网的智能“调度员”,帮助大规模消纳绿色能源。传统医疗过于依赖医生经验,效果参差不齐。人工智能与精准医疗的深度融合,将打造出临床医学的高精度导航系统,实现重大疾病的可量化、可计算、可预测、可防治。</p>\n<p>计算和通信领域的变革不断加快,数据安全和隐私保护得到前所未有的关注。全域隐私计算将成为安全领域的基石性技术。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望实现全域数据安全保护,为数字时代保驾护航。</p>\n<p>网络的边界将被不断拓展。星地计算将构建卫星及地面一体化的通信与计算,让网络覆盖海洋、沙漠、深空等无人区。达摩院预计,未来三年内低轨卫星数量将快速增长,与高轨卫星组成卫星互联网。网络技术的发展还将推动形成云网端融合的新计算体系,让终端专注极致体验,不断催生云上新物种,带领我们进入以沉浸式体验为核心的新一代互联网。</p>\n<p><b>趋势一 AI for Science</b></p>\n<p>人工智能成为科学家的新生产工具,催生科研新范式</p>\n<p>【趋势概要】实验科学和理论科学是数百年来科学界的两大基础范式,而人工智能正在催生新的科研范式。机器学习能够处理多维、多模态的海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。人工智能不仅将加速科研流程,还将帮助发现新的科学规律。预计未来三年,人工智能将在应用科学中得到普遍应用,在部分基础科学中开始成为科学家的生产工具。</p>\n<p><b>趋势二 大小模型协同进化</b></p>\n<p>大模型参数竞赛进入冷静期,大小模型将在云边端协同进化</p>\n<p>【趋势概要】超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,解决了传统深度学习的应用碎片化难题,但性能与能耗提升不成比例的效率问题限制了参数规模继续扩张。人工智能研究将从大模型参数竞赛走向大小模型的协同进化,大模型向边、端的小模型输出模型能力,小模型负责实际的推理与执行,同时小模型再向大模型反馈算法与执行成效,让大模型的能力持续强化,形成有机循环的智能体系。</p>\n<p><b>趋势三 硅光芯片</b></p>\n<p>光电融合兼具光子和电子优势,突破摩尔定律限制</p>\n<p>【趋势概要】电子芯片的发展逼近摩尔定律极限,难以满足高性能计算不断增长的数据吞吐需求。硅光芯片用光子代替电子进行信息传输,可承载更多信息和传输更远距离,具备高计算密度与低能耗的优势。随着云计算与人工智能的大爆发,硅光芯片迎来技术快速迭代与产业链高速发展。预计未来三年,硅光芯片将承载绝大部分大型数据中心内的高速信息传输。</p>\n<p><b>趋势四 绿色能源AI</b></p>\n<p>人工智能助力大规模绿色能源消纳,实现多能互补的电力体系</p>\n<p>【趋势概要】风电、光伏等绿色能源近年来快速发展,也带来了并网难、消纳率低等问题,甚至出现了“弃风”、“弃光”等现象。核心原因在于绿色能源存在波动性、随机性、反调峰等特征,大规模并网可能影响电网的安全稳定运行。人工智能技术的应用,将有效提升电网等能源系统消纳多样化电源和协调多能源的能力,成为提升能源利用率和稳定性的技术支撑,推动碳中和进程。预计未来三年,人工智能技术将帮助电力系统实现大规模绿色能源消纳,实现电力系统的安全、高效、稳定运行。</p>\n<p><b>趋势五 柔性感知机器人</b></p>\n<p>机器人将兼具柔性和类人感知,可自适应完成多种任务</p>\n<p>【趋势概要】传统机器人依赖预编程,局限于大型生产线等结构化场景。近年来,柔性机器人结合柔性电子、力感知与控制、人工智能技术,获得了力觉、视觉、声音等感知能力,应对多任务的通用性与应对环境变化的自适应性大幅提升。机器人将从大规模、标准化的产线走向小规模、非标准化的场景。预计未来五年,柔性感知机器人将逐步替代传统工业机器人,成为产线上的主力设备,并在服务机器人领域开始规模化应用。</p>\n<p><b>趋势六 高精度医疗导航</b></p>\n<p>人工智能与精准医疗深度融合,助力诊疗精度与效率提升</p>\n<p>【趋势概要】传统医疗依赖医生经验,犹如人工寻路,效果参差不齐。人工智能与精准医疗深度融合,专家经验和新的辅助诊断技术有机结合,将成为临床医学的高精度导航系统,为医生提供自动指引,帮助医疗决策更快更准,实现重大疾病的可量化、可计算、可预测、可防治。预计未来三年,以人为中心的精准医疗将成为主要方向,人工智能将全面渗透在疾病预防和诊疗的各个环节,成为疾病预防和诊疗的高精度导航协同。</p>\n<p><b>趋势七 全域隐私计算</b></p>\n<p>破解数据保护与流通两难,隐私计算走向全域数据保护</p>\n<p>【趋势概要】数据安全保护与数据流通是数字时代的两难问题,破解之道是隐私计算。过去受制于性能瓶颈、技术信任不足、标准不统一等问题,隐私计算尚只能在少量数据的场景下应用。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望跨越到海量数据保护,数据源将扩展到全域,激发数字时代的新生产力。预计未来三年,全域隐私计算技术将在性能和可解释性上有新的突破,或将出现数据信托机构提供基于隐私计算的数据共享服务。</p>\n<p><b>趋势八 星地计算</b></p>\n<p>卫星及地面一体化的通信与计算,促进空天地海全面数字化</p>\n<p>【趋势概要】基于地面网络和计算的数字化服务局限在人口密集区域,深空、海洋、沙漠等无人区尚是服务的空白地带。高低轨卫星通信和地面移动通信将无缝连接,形成空天地海一体化立体网络。由于算随网动,星地计算将集成卫星系统、空中网络、地面通信和云计算,成为删除的内容:集成一种新兴的计算架构,扩展数字化服务的空间。预计未来三年,低轨卫星数量会迎来爆发式增长,卫星及其地面系统将成为新型计算节点。</p>\n<p><b>趋势九 云网端融合</b></p>\n<p>云网端融合形成新计算体系,催生云上新物种</p>\n<p>【趋势概要】新型网络技术发展将推动云计算走向云网端融合的新计算体系,并实现云网端的专业分工:云将作为脑,负责集中计算与全局数据处理;网络作为连接,将多种网络形态通过云融合,形成低延时、广覆盖的一张网;端作为交互界面,呈现多元形态,可提供轻薄、长效、沉浸式的极致体验。云网端融合将促进高精度工业仿真、实时工业质检、虚实融合空间等新型应用诞生。预计未来两年,将有大量新型应用在云网端融合的新计算体系中运行。</p>\n<p><b>趋势十 XR互联网</b></p>\n<p>XR眼镜会成为重要交互界面,带动下一代互联网发展</p>\n<p>【趋势概要】随着端云协同计算、网络通信、数字孪生等技术发展,以沉浸式体验为核心的XR(未来虚实融合)互联网将迎爆发期。眼镜有望成为新的人机交互界面,推动形成有别于平面互联网的XR互联网,催生从元器件、设备、操作系统到应用的新产业生态。XR互联网将重塑数字应用形态,变革娱乐、社交、工作、购物、教育、医疗等场景交互方式。预计未来三年,外形与重量接近普通眼镜的新一代XR眼镜将产生,成为下一代互联网的关键入口。</p>","source":"lsy1592808427283","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制\n</h2>\n\n<h4 class=\"meta\">\n\n\n2021-12-28 11:38 北京时间 <a href=https://baijiahao.baidu.com/s?id=1720356889968545167&wfr=spider&for=pc><strong>钱江晚报</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,覆盖159个领域,挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势,覆盖人工智能、芯片、计算和通信等领域。\n达摩院首先关注到可能激发全局变革、令人...</p>\n\n<a href=\"https://baijiahao.baidu.com/s?id=1720356889968545167&wfr=spider&for=pc\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/3a7574e1aacf9a9c99f899d5e60407e9","relate_stocks":{"BABA":"阿里巴巴"},"source_url":"https://baijiahao.baidu.com/s?id=1720356889968545167&wfr=spider&for=pc","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1139105558","content_text":"12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,覆盖159个领域,挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势,覆盖人工智能、芯片、计算和通信等领域。\n达摩院首先关注到可能激发全局变革、令人心潮澎湃的科学基础范式变化。数百年来科学研究主要使用实验科学和理论科学两大基础范式,如今可能迎来全新范式:AI for Science。通过将人工智能引入更底层的科研领域,处理多维、多模态的海量数据,科学家可能突破长久以来的研究瓶颈,抵达更远的无人区。\n人工智能本身也将迎来模式变革。超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,它解决了传统深度学习的应用碎片化难题,引发科研机构和企业重点投入。达摩院认为,因性能与能耗提升不成比例,大模型参数竞赛将进入冷静期,大小模型云边端协同进化会是未来趋势。\n变革还将发生在芯片领域。在电子芯片的制程竞赛接近终点的情况下,硅光芯片异军突起,融合光子和电子优势,突破摩尔定律限制,满足人工智能、云计算带来的爆发性算力需求。预计未来三年,硅光芯片将承载大型数据中心的高速信息传输。\n人工智能的应用进一步延伸,有望对国计民生产生影响。风电、光伏等绿色能源近年来快速发展,但由于波动性、随机性、反调峰等特征,带来了并网难、消纳率低等问题。达摩院认为,AI可通过精准的计算和协调能力,成为电网的智能“调度员”,帮助大规模消纳绿色能源。传统医疗过于依赖医生经验,效果参差不齐。人工智能与精准医疗的深度融合,将打造出临床医学的高精度导航系统,实现重大疾病的可量化、可计算、可预测、可防治。\n计算和通信领域的变革不断加快,数据安全和隐私保护得到前所未有的关注。全域隐私计算将成为安全领域的基石性技术。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望实现全域数据安全保护,为数字时代保驾护航。\n网络的边界将被不断拓展。星地计算将构建卫星及地面一体化的通信与计算,让网络覆盖海洋、沙漠、深空等无人区。达摩院预计,未来三年内低轨卫星数量将快速增长,与高轨卫星组成卫星互联网。网络技术的发展还将推动形成云网端融合的新计算体系,让终端专注极致体验,不断催生云上新物种,带领我们进入以沉浸式体验为核心的新一代互联网。\n趋势一 AI for Science\n人工智能成为科学家的新生产工具,催生科研新范式\n【趋势概要】实验科学和理论科学是数百年来科学界的两大基础范式,而人工智能正在催生新的科研范式。机器学习能够处理多维、多模态的海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。人工智能不仅将加速科研流程,还将帮助发现新的科学规律。预计未来三年,人工智能将在应用科学中得到普遍应用,在部分基础科学中开始成为科学家的生产工具。\n趋势二 大小模型协同进化\n大模型参数竞赛进入冷静期,大小模型将在云边端协同进化\n【趋势概要】超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,解决了传统深度学习的应用碎片化难题,但性能与能耗提升不成比例的效率问题限制了参数规模继续扩张。人工智能研究将从大模型参数竞赛走向大小模型的协同进化,大模型向边、端的小模型输出模型能力,小模型负责实际的推理与执行,同时小模型再向大模型反馈算法与执行成效,让大模型的能力持续强化,形成有机循环的智能体系。\n趋势三 硅光芯片\n光电融合兼具光子和电子优势,突破摩尔定律限制\n【趋势概要】电子芯片的发展逼近摩尔定律极限,难以满足高性能计算不断增长的数据吞吐需求。硅光芯片用光子代替电子进行信息传输,可承载更多信息和传输更远距离,具备高计算密度与低能耗的优势。随着云计算与人工智能的大爆发,硅光芯片迎来技术快速迭代与产业链高速发展。预计未来三年,硅光芯片将承载绝大部分大型数据中心内的高速信息传输。\n趋势四 绿色能源AI\n人工智能助力大规模绿色能源消纳,实现多能互补的电力体系\n【趋势概要】风电、光伏等绿色能源近年来快速发展,也带来了并网难、消纳率低等问题,甚至出现了“弃风”、“弃光”等现象。核心原因在于绿色能源存在波动性、随机性、反调峰等特征,大规模并网可能影响电网的安全稳定运行。人工智能技术的应用,将有效提升电网等能源系统消纳多样化电源和协调多能源的能力,成为提升能源利用率和稳定性的技术支撑,推动碳中和进程。预计未来三年,人工智能技术将帮助电力系统实现大规模绿色能源消纳,实现电力系统的安全、高效、稳定运行。\n趋势五 柔性感知机器人\n机器人将兼具柔性和类人感知,可自适应完成多种任务\n【趋势概要】传统机器人依赖预编程,局限于大型生产线等结构化场景。近年来,柔性机器人结合柔性电子、力感知与控制、人工智能技术,获得了力觉、视觉、声音等感知能力,应对多任务的通用性与应对环境变化的自适应性大幅提升。机器人将从大规模、标准化的产线走向小规模、非标准化的场景。预计未来五年,柔性感知机器人将逐步替代传统工业机器人,成为产线上的主力设备,并在服务机器人领域开始规模化应用。\n趋势六 高精度医疗导航\n人工智能与精准医疗深度融合,助力诊疗精度与效率提升\n【趋势概要】传统医疗依赖医生经验,犹如人工寻路,效果参差不齐。人工智能与精准医疗深度融合,专家经验和新的辅助诊断技术有机结合,将成为临床医学的高精度导航系统,为医生提供自动指引,帮助医疗决策更快更准,实现重大疾病的可量化、可计算、可预测、可防治。预计未来三年,以人为中心的精准医疗将成为主要方向,人工智能将全面渗透在疾病预防和诊疗的各个环节,成为疾病预防和诊疗的高精度导航协同。\n趋势七 全域隐私计算\n破解数据保护与流通两难,隐私计算走向全域数据保护\n【趋势概要】数据安全保护与数据流通是数字时代的两难问题,破解之道是隐私计算。过去受制于性能瓶颈、技术信任不足、标准不统一等问题,隐私计算尚只能在少量数据的场景下应用。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望跨越到海量数据保护,数据源将扩展到全域,激发数字时代的新生产力。预计未来三年,全域隐私计算技术将在性能和可解释性上有新的突破,或将出现数据信托机构提供基于隐私计算的数据共享服务。\n趋势八 星地计算\n卫星及地面一体化的通信与计算,促进空天地海全面数字化\n【趋势概要】基于地面网络和计算的数字化服务局限在人口密集区域,深空、海洋、沙漠等无人区尚是服务的空白地带。高低轨卫星通信和地面移动通信将无缝连接,形成空天地海一体化立体网络。由于算随网动,星地计算将集成卫星系统、空中网络、地面通信和云计算,成为删除的内容:集成一种新兴的计算架构,扩展数字化服务的空间。预计未来三年,低轨卫星数量会迎来爆发式增长,卫星及其地面系统将成为新型计算节点。\n趋势九 云网端融合\n云网端融合形成新计算体系,催生云上新物种\n【趋势概要】新型网络技术发展将推动云计算走向云网端融合的新计算体系,并实现云网端的专业分工:云将作为脑,负责集中计算与全局数据处理;网络作为连接,将多种网络形态通过云融合,形成低延时、广覆盖的一张网;端作为交互界面,呈现多元形态,可提供轻薄、长效、沉浸式的极致体验。云网端融合将促进高精度工业仿真、实时工业质检、虚实融合空间等新型应用诞生。预计未来两年,将有大量新型应用在云网端融合的新计算体系中运行。\n趋势十 XR互联网\nXR眼镜会成为重要交互界面,带动下一代互联网发展\n【趋势概要】随着端云协同计算、网络通信、数字孪生等技术发展,以沉浸式体验为核心的XR(未来虚实融合)互联网将迎爆发期。眼镜有望成为新的人机交互界面,推动形成有别于平面互联网的XR互联网,催生从元器件、设备、操作系统到应用的新产业生态。XR互联网将重塑数字应用形态,变革娱乐、社交、工作、购物、教育、医疗等场景交互方式。预计未来三年,外形与重量接近普通眼镜的新一代XR眼镜将产生,成为下一代互联网的关键入口。","news_type":1},"isVote":1,"tweetType":1,"viewCount":2352,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":601726076,"gmtCreate":1638573501491,"gmtModify":1638573501491,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>没有消炎的战场,这一局完败!血流成河惨不忍睹……","listText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>没有消炎的战场,这一局完败!血流成河惨不忍睹……","text":"$滴滴(DIDI)$没有消炎的战场,这一局完败!血流成河惨不忍睹……","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":6,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/601726076","isVote":1,"tweetType":1,"viewCount":4709,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":879595736,"gmtCreate":1636733711039,"gmtModify":1636733711039,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/KODK\">$柯达(KODK)$</a>元宇宙核心光场相机应该可以涨100倍左右","listText":"<a href=\"https://laohu8.com/S/KODK\">$柯达(KODK)$</a>元宇宙核心光场相机应该可以涨100倍左右","text":"$柯达(KODK)$元宇宙核心光场相机应该可以涨100倍左右","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/879595736","isVote":1,"tweetType":1,"viewCount":3333,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":847603968,"gmtCreate":1636510116556,"gmtModify":1636511189779,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"垃圾","listText":"垃圾","text":"垃圾","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/847603968","repostId":"1168405895","repostType":2,"repost":{"id":"1168405895","kind":"news","weMediaInfo":{"introduction":"华尔街见闻出品,专注于美股市场。为您提供最重要的资讯数据,最全面的市场动态和最深刻的解读分析。","home_visible":1,"media_name":"见闻IPO","id":"1083533104","head_image":"https://static.tigerbbs.com/0717bf7b1e5642e9827aeffbf11eb9ad"},"pubTimestamp":1636509346,"share":"https://www.laohu8.com/m/news/1168405895?lang=&edition=full","pubTime":"2021-11-10 09:55","market":"us","language":"zh","title":"特斯拉最大劲敌要来了!Rivian将IPO定价在78美元","url":"https://stock-news.laohu8.com/highlight/detail?id=1168405895","media":"见闻IPO","summary":"电动皮卡新锐$Rivian$将于11月10日登陆纳斯达克,此次IPO,将使其成为年度中全球规模最大、最受期待的交易之一。据华尔街日报援引知情人士表示,美国加州电动汽车初创公司Rivian在此次备受期待的IPO中,将发行价格定为每股78美元,远高于其上调后的定价区间上限。目前,Rivian的估值已经超过了770亿美元。上周五,Rivian表示,计划以每股72-74美元的价格进行发行,已经远高于其最初的目标价格区间57-62美元。","content":"<p>电动皮卡新锐<a href=\"https://laohu8.com/S/RIVN\">Rivian</a>将于11月10日登陆纳斯达克,此次IPO,将使其成为年度中全球规模最大、最受期待的交易之一。</p>\n<p>据华尔街日报援引知情人士表示,美国加州电动汽车初创公司Rivian在此次备受期待的IPO中,将发行价格定为每股78美元,远高于其上调后的定价区间上限。目前,Rivian的估值已经超过了770亿美元(超4000亿元)。</p>\n<p>该公司得到了<a href=\"https://laohu8.com/S/AMZN\">亚马逊</a>的支持,预计将通过发行比原计划(80亿美元)更多的股票来筹集约120亿美元的资金。如果募资顺利,那么这一融资规模有望使<b>Rivian成为年内最大的美股IPO,且位居2011年之后美股IPO规模第四。</b></p>\n<p>据媒体报道,近十年内,美国资本市场中只有三家公司的IPO融资规模超过80亿美元,分别是2014年上市的<a href=\"https://laohu8.com/S/BABA\">阿里巴巴</a>(250亿美元)和Facebook(160亿美元),以及2019年上市的Uber(81亿美元)。</p>\n<p>知情人士还表示,在周二晚间,拟出售的股票数量仍在变动,因此具体的数字可能还会发生变化。上周五,Rivian表示,计划以每股72-74美元的价格进行发行,已经远高于其最初的目标价格区间57-62美元。</p>\n<p>在上市之前,Rivian还列出了一长串所谓的“锚定投资者”名单,他们表示有兴趣购买50亿美元的股票。亚马逊和投资公司T. Rowe price Group Inc.、Coatue Management和富兰克林邓普顿(Franklin Templeton)都表示将按IPO价格买入。</p>\n<p>这个更加名副其实的<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>“死对头”到底是什么来头?</p>\n<p><b>成立仅10年,飞速成长</b></p>\n<p>把Rivian称作特斯拉的“死对头”一点都没有夸张。</p>\n<p>媒体援引<a href=\"https://laohu8.com/S/MS\">摩根士丹利</a>分析师的观点,认为特斯拉在电动车市场的主导地位可能会被Rivian打破。</p>\n<p>而特斯拉本身也一直在关注这位对手。</p>\n<p>对于Rivian的高估值,马斯克曾在推特上回复一位网友对Rivian估值的评论时辛辣回复:“我不想无理取闹,但在IPO之前,每对应10亿美元的估值,他们至少应该交付一辆汽车?”</p>\n<p><img src=\"https://static.tigerbbs.com/844ddc8eba2ce481b8417699f1ff6c4d\" tg-width=\"601\" tg-height=\"127\" referrerpolicy=\"no-referrer\"></p>\n<p>事实上,就连Rivian的创始人也被视作同马斯克一样具有人格魅力。虽然斯卡林格在推特上的粉丝数量只有马斯克的千分之一,但Rivian还是将「Rivian 的服务与声誉高度依赖斯卡林格」列为公司经营的风险因素之一。</p>\n<p><img src=\"https://static.tigerbbs.com/6d4377beb2c68a2a34c206e4c2950977\" tg-width=\"608\" tg-height=\"514\" referrerpolicy=\"no-referrer\"></p>\n<p>斯卡林格拥有优异的学历背景,博士毕业于MIT的斯隆汽车实验室,刚毕业就勇敢选择了创业这条路,成立Rivian的前身——Avera。</p>\n<p>刚成立时,这家不起眼的公司只有20个人左右,但很快就以一款 2+2 布局的混合动力轿跑车型R1从佛罗里达州政府手里拿到了 200 万美元的「赠款」作为初始资金。</p>\n<p>不过时间到2011年之后,斯卡林格改变了公司的业务方向,搁置了「混合动力」的选择,转而专注于纯电动汽车,将主要开发皮卡和SUV,并将公司正式变更为Rivian。</p>\n<p>改掉旧名字的一个重要原因是Avera曾经被<a href=\"https://laohu8.com/S/HYUD.UK\">现代汽车</a>注册为商标,并提起了诉讼。不过斯卡林格同时表示新名字同时向公司所在地的Indian River Lagoon致敬。</p>\n<p>由于被搁置,所以2011年公司曾经公开发布的原型车是不是就是这个最初的R1,市场一直并不是很确定。</p>\n<p><img src=\"https://static.tigerbbs.com/b4f4a625e83078897c408b078caa4041\" tg-width=\"460\" tg-height=\"275\" referrerpolicy=\"no-referrer\"></p>\n<p>2015年时,Rivian在密歇根和旧金山湾区设立了研发中心。为了离核心供应商更近,Rivian在同一年将总部从佛罗里达搬到了密歇根州的利沃尼亚,开始构建关于电动<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>车的“整个生态系统”,还将原型车推向了共享乘车和无人驾驶汽车市场。</p>\n<p>2017年,Rivian买下了三菱的一处旧厂,该厂位于伊利诺伊州诺默尔市。这一买厂而非建厂的举措也被拿来和特斯拉相比较,后者曾买下加州的新联合汽车制造公司工厂。</p>\n<p>2017年底,Rivian就宣布原型车已经完成,将进入测试阶段。2018年时,Rivian表示将即将推出的皮卡命名为A1T,将SUV命名为A1C,此后又宣布重新命名,宣布这两款车将分别叫R1T和R1S。</p>\n<p>这两款车原计划于2021年6月推出,但由于全球缺芯的影响,R1T的交付一直推迟到了2021年9月才得以实现。7座SUV R1S和商用物流车EDV则计划于今年12月交付。</p>\n<p><b>背靠亚马逊、福特两棵大树</b></p>\n<p>2011年才确定战略就进展如此之快,离不开创始人斯卡林格背后的金主们,截至2021年8月,公司已累计募集了约110亿美元,融资规模直接逼近特斯拉上市后的融资。</p>\n<p>早期,Rivian的资金主要来自于“赠款”,斯卡林格的父亲是一家军事相关热控公司的创始人,一方面较为富有能够为Rivian提供支持;另一方面由于与政府及军方的关系,也为斯卡林格的后续发展带来了各方面的便利。</p>\n<p>早期的几笔款项的主要来源包括佛罗里达州的捐赠及税收贷款、住友集团的战略投资等。</p>\n<p>更大规模的融资则始于2018年,历史上的投资方包括亚马逊、渣打银行、<a href=\"https://laohu8.com/S/F\">福特汽车</a>、贝莱德、及另外一些金融机构。</p>\n<p><img src=\"https://static.tigerbbs.com/069690083de608d6c9dc7f3d5a9913a7\" tg-width=\"846\" tg-height=\"1822\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:企查查</p>\n<p>其中号称“最讨厌特斯拉”的亚马逊在Rivian的融资历史中扮演了重要角色,此外福特也占据了重要位置。</p>\n<p>目前的招股书并未披露股东的具体持股比例,唯一可以确定的是亚马逊和福特的持股比例均超过5%,且亚马逊在股东中排名首位。但此前曾有外媒报道,称亚马逊目前持股比例已经达到公司的四分之一。</p>\n<p><img src=\"https://static.tigerbbs.com/e3b208d940f14aa4be3988885881d6b3\" tg-width=\"854\" tg-height=\"280\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>而根据目前融资总额以及亚马逊投资的了25亿美元计算,IPO前亚马逊的股权占比至少接近25%。</p>\n<p>同时,亚马逊的全球企业和业务发展高级副总裁彼得·克拉维茨(Peter Krawiec)还担任Rivian的董事会成员。</p>\n<p>Rivian与亚马逊的关系重大到让人无法忽略,除了股权上的关系之外,它的收入大头同样来自亚马逊。</p>\n<p>2019年9月时,Rivian已于亚马逊签订协议,将为亚马逊提供EDV货车,用于其最后一英里的物流交付。而 Rivian 计划在 2022 年为亚马逊交付1万 EDV,到 2030 年,共计划交付10万辆。</p>\n<p>而未来具体的订单节奏,会视亚马逊自身物流业务的进展和充电设施布局而定。但至少,未来四年Rivian拥有亚马逊的独家送货车订单,且在之后2年仍然享有优先供应权。</p>\n<p>而另外一位重要股东福特,除了提供资金外,还协助开发原型车。招股书显示,福特在Rivian中的角色主要由其全资子公司 Troy Design and Manufacturing Co.为Rivian提供原型设计和开发服务。从 2019 年到 2020 年底,Rivian 向这家福特子公司共计支付了 7400万美元的服务费用。</p>\n<p><img src=\"https://static.tigerbbs.com/51efa234da33c0b96cd1a76feba4f880\" tg-width=\"836\" tg-height=\"88\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p><b>打造第一台电动皮卡</b></p>\n<p>那么,深受亚马逊和贝索斯倚重的Rivian,魅力到底在哪?</p>\n<p>Rivian与特斯拉不同,它从一开始就选择了一条在美国极其讨喜的赛道——皮卡电动车。</p>\n<p>对于缺少高速公共交通工具的美国人来说,自驾是更加方便的出行方式。同时大多数人拥有自己独立的别墅、车库、草坪和院落,为了打理院子,需要购买诸多工具、材料和日用品;而人力成本在美国非常高,大部分人会选择自己动手。</p>\n<p>因此,啥都能装的皮卡就成为美国人最喜欢的车型,其次是SUV。</p>\n<p>2020年美国汽车销量排行中,前三名福特F系、雪佛兰索罗德和道奇RAM全部是皮卡,第四名之后才开始出现SUV。</p>\n<p><img src=\"https://static.tigerbbs.com/7e54e7d83cbce73793d236bef7986e0c\" tg-width=\"476\" tg-height=\"450\" referrerpolicy=\"no-referrer\"></p>\n<p>而另一方面,面对汽车电动化趋势和日趋严苛的全球排放标准,美国本土作为全球最大的皮卡消费市场,燃油皮卡的电动化替代已然被提上日程。传统皮卡的大排量、高油耗等诸多不利于环保的“弊端”,在纯电动皮卡车型上将不复存在。随着美国政府2035年汽车零排放政策的不断推进,未来的电动皮卡车无疑拥有十分广阔的发展潜力。</p>\n<p>深谙美国市场的Rivian选择专攻电动皮卡,迎合美国车迷的口味,自然就成功了一半。而如今,它也已经成功推出了第一款电动皮卡。</p>\n<p>就算回看几年之前,Rivian也是第一家发布电动皮卡的车企。</p>\n<p>2018年11月,Rivian率先发布了旗下首款电动皮卡R1T;2019年11月22日,特斯拉发布了该公司第一辆电动皮卡,名为Cybertruck。根据特斯拉的消息,截至目前,Cybertruck的订单数量已经超过100万辆。紧随其后的是美国两家老牌车企——<a href=\"https://laohu8.com/S/GM\">通用汽车</a>和福特,它们分别在2020年11月和2021年5月发布了纯电动版本的悍马和F-150。</p>\n<p>虽然时间多次推迟,但9月15日,创始人斯卡林格在推特上宣布,公司首款电动皮卡R1T的第一辆车完成生产并下线。Rivian由此成为第一家将电动皮卡推向市场的汽车制造商。这一时间大幅领先通用、福特等竞争对手,特斯拉的Cybertruck原本计划在今年底交付,但目前也已推迟计划,并预计将于2022年实现下线并于2023年开始量产交付。</p>\n<p><img src=\"https://static.tigerbbs.com/21414a40417e234e0764df210840f6db\" tg-width=\"599\" tg-height=\"466\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:推特</p>\n<p>所以马斯克对Rivian如此针锋相对是有原因的,谁让Rivian领先了一年就下线了第一台车呢?</p>\n<p>除此之外,Rivian还频繁挖角儿,包括特斯拉、福特、FF和迈凯伦在内的多家公司员工和高管都被斯卡林格纳入麾下。虽然被气到发疯的特斯拉起诉过,但Rivian还是继续聘任特斯拉的前高管Kalayjian担任Rivian的工程和产品高级副总裁。</p>\n<p><b>标配皮卡续航里程约500公里</b></p>\n<p>官网上,目前皮卡车型 R1T和SUV车型 R1S都在预售中,可以自行选择配置方案。招股书显示,截至 9 月底,其拥有近 5 万份(48390)R1T 和 R1S 的预定单(每个订单需付1000元可退还的定金)。</p>\n<p><img src=\"https://static.tigerbbs.com/c06c4e6a85071965699410e7e792e59b\" tg-width=\"719\" tg-height=\"648\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:官网</p>\n<p>无论是 R1T、R1S 还是交付给亚马逊的 EDV,Rivian 都采用了「滑板」纯电驱动平台。</p>\n<p>这种「滑板」平台将电机、电池管理系统、冷却系统、悬架系统、液压控制系统全部整合到一个完整的模块中,位于底盘中间。四电机版本的 R1T 可以能实现坦克转向(原地转向)。</p>\n<p><img src=\"https://static.tigerbbs.com/2fdecb910b9ac87c8c867d3bd38b5917\" tg-width=\"555\" tg-height=\"319\" referrerpolicy=\"no-referrer\"></p>\n<p>外表上看,R1T 的外观没有 Cybertruck 那么激进,整个车身保留了传统皮卡的主体框架。通过粗线条的灯带贯穿车头,以及两个长椭圆状的大灯,打造出一个富有科技感的前脸。</p>\n<p>而R1S则选择了全封闭车体,第三排还有两个座椅,但与此同时,装备通道功能就被牺牲了。</p>\n<p><img src=\"https://static.tigerbbs.com/90e238790c3e2658b684eefa03685ee6\" tg-width=\"1080\" tg-height=\"629\" referrerpolicy=\"no-referrer\"></p>\n<p>价格方面,R1T的首批发布的标配款定价约为7.3万美元;计划于今年12月下线的R1S标配版售价则略高2200美元,定价7.55万美元。</p>\n<p><img src=\"https://static.tigerbbs.com/ab7907fa9703ec61fd5e42d2a5177611\" tg-width=\"1080\" tg-height=\"514\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:官网</p>\n<p>由于定位不同,所以两台车在尺寸、重量、容积、有效载荷、续航上有差别。</p>\n<p>日常生活中皮卡经常拉货,需要大扭矩及强散热的需求,这对于电池的要求很高;此外户外环境的高低温对电池也提出了更高的要求。</p>\n<p>R1T的EPA额定里程约为314英里,对应公里数为505左右,而它在高速公路上的续航能力为471.3km,比综合值下降7%,在城市中的续航能力为533.9km,高出综合值5%。</p>\n<p>R1S稍微多一点点为316英里,对应公里数为509左右,它在高速公路上续航能力为476.9km,比综合值下降6%,在城市里的续航能力为533.2km,高出综合值约5%。根据美国环保署的数据,这款纯电SUV的综合能耗为304Wh/km。</p>\n<p><img src=\"https://static.tigerbbs.com/171f205d1e8f0204d13958b5c6dce4ae\" tg-width=\"830\" tg-height=\"330\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>Rivian还表示计划将在2022年1月为R1S推出一款续航超过640km的版本,然后还会推出一款续航约为402km的入门级版本。</p>\n<p>在智能驾驶层面,华尔街见闻此前文章提及:</p>\n<blockquote>\n Rivian的皮卡R1T,不仅具备“坦克转向”的功能,可以实现车辆180度的原地转向,而且其自动驾驶能力也不逊色于特斯拉,R1T标配了L3级别的脱手驾驶辅助系统,配备的硬件装置也在特斯拉之上。\n</blockquote>\n<p>而亚马逊预定10万辆的EDV系列续航里程小得多,因为其主要集中于解决短距离物流的难题。但在容量上EDV系列非常出色,三个版本的容量分别为500、700和900立方英尺。</p>\n<p><img src=\"https://static.tigerbbs.com/d57d3a97749dd246595c05537d5f311e\" tg-width=\"836\" tg-height=\"256\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p><b>加速全面布局</b></p>\n<p>根据招股书披露的信息,由于今年9月第一辆车才刚刚下线,因此公司并未实现营收。而费用方面则主要花费在研发上的,2019-2020年公司分别亏损了4.26亿美元、10.18亿美元,今年上半年公司亏损了9.94亿美元。</p>\n<p><img src=\"https://static.tigerbbs.com/9963700c90ca690915c8964a5ed34419\" tg-width=\"903\" tg-height=\"448\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>其中2020年研发投入约为7.66亿美元,2021年上半年研发投入约为6.83亿美元。</p>\n<p>且预计未来一段时间,Rivian将持续在自建工厂&充电网络上进行投入,同时通过全面生态的商业模式实现收入。</p>\n<p>1、加快自建工厂</p>\n<p>目前正在同步生产R1T和R1S的工厂是诺默尔(Normal)。</p>\n<p>前文已经提过,这个工厂是2017年Rivian买下的三菱旧工厂。该工厂目前的计划产能是15万台,9月15日下线的第一台车就来自这个工厂。</p>\n<p>同时还有一条产线专门生产亚马逊订购的电动送货车 EDV。</p>\n<p>不过Rivian目前并不仅满足于这一个工厂,它还正在美国和英国筹划自建工厂。</p>\n<p>据汽车之心报道,2021年8月美国德克萨斯州Fort Worth经济发展部的一份文件显示,Rivian计划投资50亿美元在美建设第二座工厂,包括汽车制造、汽车零部件组装以及研发中心三个部分。</p>\n<p>这份工厂的计划占地面积约为2000英亩,规划年产能为20万辆汽车,比诺默尔还要多出5万辆。</p>\n<p>此外,据当地媒体报道,Rivian还计划投资10亿英镑,在英国的<a href=\"https://laohu8.com/S/BRS\">布里斯托</a>尔附近建设首个海外产线,不过目前该项目还处在初期。与此同时,德国、荷兰也在与Rivian进行类似的谈判。</p>\n<p>中国市场同样在Rivian的规划内。</p>\n<p>按照计划,在2022年1月R1S这款七座SUV推出后,Rivian也将于2022年在中国推出紧凑型SUV,斯卡林格曾表示:“如果不把中国和欧洲视为重要的长期市场来考虑,我们就不可能真正打造一家汽车公司。”</p>\n<p>并且已经透露过——这些产品最终可能直接在当地生产。</p>\n<p>2、超/快充网络建设</p>\n<p>当前,随着车辆交付在即,Rivian 也在建设直流快充网络和交流快充网络。官方称自家的快充网络为Adventure Network。</p>\n<p>Rivian 将提供快充、目的地充电以及家充等多种方式。其快充的初始充电速率最初为200kW,后续将升级到300kW。</p>\n<p>其中,Rivian计划在2023年在600个站点建立超过3500个直流快充桩。</p>\n<p>在 3500 个快充桩之外,Rivian 同步计划在2023年底前建造10000个目的地充电桩(称为 Rivian Waypoints),支持的最高充电功率为11.5kW,目的地充电桩将主要分布在商超、酒店、餐馆、公园等场所。</p>\n<p>3、构建商业生态</p>\n<p>此外,在Rivian的生态中,还包含了车辆技术、云、产品开发运营、服务和数据分析在内等共六个部分。</p>\n<p><img src=\"https://static.tigerbbs.com/f26b20cfae4a4a364c21d89951af9be7\" tg-width=\"802\" tg-height=\"793\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>随着产品交付日期的临近,Rivian的服务中心已经越来越多,预计仅今年将在美国开设10个体验中心,并在2022年上线更多分店。而Rivian能够提供的服务,除了常规的售后维修、定制升级外,还包含了车辆保险业务、信贷业务,因此做直营模式的 Rivian 没有放弃金融模块的蛋糕,想要掌握客户的保险、信贷业务以及客户体验部分的收益。</p>\n<p>这其中预计(1)通过转售和换新,将在每辆民用车上获利3.45万美元(商用车约1.98万美元);(2)保险信贷业务获利约8700美元(商用车为7400美元);(3)售后服务获利3500美元(商用车6100美元)。</p>\n<p>在软件服务上,Rivian计划在每辆车的生命周期中获得约1.55万美元的收入,包括1万元左右的辅助驾驶功能收费。这与特斯拉的FSD价格也刚好重合。</p>\n<p>通过全生态的构建,加上充电等服务,那么去掉购车款,Rivian的每台民用消费车型在整个生命周期内,预期收入 6.79万美元!</p>\n<p>亚马逊未来4年的10万辆EDV的现金流也将与此接近,单车约为6.46万美元。这也意味着Rivian将拥有强劲的现金流。</p>\n<p><b>尾声</b></p>\n<p>作为后来者,Rivian的首款电动皮卡已经惊艳了市场,并且拉开包括特斯拉在内的竞争对手至少1年以上的时间距离。</p>\n<p>虽然短期Rivian仍然处在巨额投入的周期,可能会继续亏损,但公司目前已经呈现势不可挡的姿态。</p>\n<p>考虑到特斯拉在上市的前几年也都处于亏损中,2020年才出现年度盈利,因此市场留给Rivian的时间还有很多。</p>\n<p>在招股文件的开头,斯卡林格就用一封信简要介绍了Rivian的创业历程:从一张白纸走到现在,因为从不设限,Rivian才充满想象。</p>\n<p><img src=\"https://static.tigerbbs.com/0df4e5cd44323ffc8d44ff94c5288212\" tg-width=\"1080\" tg-height=\"83\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>面对迷人但仍然可能充满荆棘的前路,800亿美元的市值对这家初创企业来说可能还只是一个开始。</p>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>特斯拉最大劲敌要来了!Rivian将IPO定价在78美元</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n特斯拉最大劲敌要来了!Rivian将IPO定价在78美元\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/1083533104\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/0717bf7b1e5642e9827aeffbf11eb9ad);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">见闻IPO </p>\n<p class=\"h-time\">2021-11-10 09:55</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<p>电动皮卡新锐<a href=\"https://laohu8.com/S/RIVN\">Rivian</a>将于11月10日登陆纳斯达克,此次IPO,将使其成为年度中全球规模最大、最受期待的交易之一。</p>\n<p>据华尔街日报援引知情人士表示,美国加州电动汽车初创公司Rivian在此次备受期待的IPO中,将发行价格定为每股78美元,远高于其上调后的定价区间上限。目前,Rivian的估值已经超过了770亿美元(超4000亿元)。</p>\n<p>该公司得到了<a href=\"https://laohu8.com/S/AMZN\">亚马逊</a>的支持,预计将通过发行比原计划(80亿美元)更多的股票来筹集约120亿美元的资金。如果募资顺利,那么这一融资规模有望使<b>Rivian成为年内最大的美股IPO,且位居2011年之后美股IPO规模第四。</b></p>\n<p>据媒体报道,近十年内,美国资本市场中只有三家公司的IPO融资规模超过80亿美元,分别是2014年上市的<a href=\"https://laohu8.com/S/BABA\">阿里巴巴</a>(250亿美元)和Facebook(160亿美元),以及2019年上市的Uber(81亿美元)。</p>\n<p>知情人士还表示,在周二晚间,拟出售的股票数量仍在变动,因此具体的数字可能还会发生变化。上周五,Rivian表示,计划以每股72-74美元的价格进行发行,已经远高于其最初的目标价格区间57-62美元。</p>\n<p>在上市之前,Rivian还列出了一长串所谓的“锚定投资者”名单,他们表示有兴趣购买50亿美元的股票。亚马逊和投资公司T. Rowe price Group Inc.、Coatue Management和富兰克林邓普顿(Franklin Templeton)都表示将按IPO价格买入。</p>\n<p>这个更加名副其实的<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>“死对头”到底是什么来头?</p>\n<p><b>成立仅10年,飞速成长</b></p>\n<p>把Rivian称作特斯拉的“死对头”一点都没有夸张。</p>\n<p>媒体援引<a href=\"https://laohu8.com/S/MS\">摩根士丹利</a>分析师的观点,认为特斯拉在电动车市场的主导地位可能会被Rivian打破。</p>\n<p>而特斯拉本身也一直在关注这位对手。</p>\n<p>对于Rivian的高估值,马斯克曾在推特上回复一位网友对Rivian估值的评论时辛辣回复:“我不想无理取闹,但在IPO之前,每对应10亿美元的估值,他们至少应该交付一辆汽车?”</p>\n<p><img src=\"https://static.tigerbbs.com/844ddc8eba2ce481b8417699f1ff6c4d\" tg-width=\"601\" tg-height=\"127\" referrerpolicy=\"no-referrer\"></p>\n<p>事实上,就连Rivian的创始人也被视作同马斯克一样具有人格魅力。虽然斯卡林格在推特上的粉丝数量只有马斯克的千分之一,但Rivian还是将「Rivian 的服务与声誉高度依赖斯卡林格」列为公司经营的风险因素之一。</p>\n<p><img src=\"https://static.tigerbbs.com/6d4377beb2c68a2a34c206e4c2950977\" tg-width=\"608\" tg-height=\"514\" referrerpolicy=\"no-referrer\"></p>\n<p>斯卡林格拥有优异的学历背景,博士毕业于MIT的斯隆汽车实验室,刚毕业就勇敢选择了创业这条路,成立Rivian的前身——Avera。</p>\n<p>刚成立时,这家不起眼的公司只有20个人左右,但很快就以一款 2+2 布局的混合动力轿跑车型R1从佛罗里达州政府手里拿到了 200 万美元的「赠款」作为初始资金。</p>\n<p>不过时间到2011年之后,斯卡林格改变了公司的业务方向,搁置了「混合动力」的选择,转而专注于纯电动汽车,将主要开发皮卡和SUV,并将公司正式变更为Rivian。</p>\n<p>改掉旧名字的一个重要原因是Avera曾经被<a href=\"https://laohu8.com/S/HYUD.UK\">现代汽车</a>注册为商标,并提起了诉讼。不过斯卡林格同时表示新名字同时向公司所在地的Indian River Lagoon致敬。</p>\n<p>由于被搁置,所以2011年公司曾经公开发布的原型车是不是就是这个最初的R1,市场一直并不是很确定。</p>\n<p><img src=\"https://static.tigerbbs.com/b4f4a625e83078897c408b078caa4041\" tg-width=\"460\" tg-height=\"275\" referrerpolicy=\"no-referrer\"></p>\n<p>2015年时,Rivian在密歇根和旧金山湾区设立了研发中心。为了离核心供应商更近,Rivian在同一年将总部从佛罗里达搬到了密歇根州的利沃尼亚,开始构建关于电动<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>车的“整个生态系统”,还将原型车推向了共享乘车和无人驾驶汽车市场。</p>\n<p>2017年,Rivian买下了三菱的一处旧厂,该厂位于伊利诺伊州诺默尔市。这一买厂而非建厂的举措也被拿来和特斯拉相比较,后者曾买下加州的新联合汽车制造公司工厂。</p>\n<p>2017年底,Rivian就宣布原型车已经完成,将进入测试阶段。2018年时,Rivian表示将即将推出的皮卡命名为A1T,将SUV命名为A1C,此后又宣布重新命名,宣布这两款车将分别叫R1T和R1S。</p>\n<p>这两款车原计划于2021年6月推出,但由于全球缺芯的影响,R1T的交付一直推迟到了2021年9月才得以实现。7座SUV R1S和商用物流车EDV则计划于今年12月交付。</p>\n<p><b>背靠亚马逊、福特两棵大树</b></p>\n<p>2011年才确定战略就进展如此之快,离不开创始人斯卡林格背后的金主们,截至2021年8月,公司已累计募集了约110亿美元,融资规模直接逼近特斯拉上市后的融资。</p>\n<p>早期,Rivian的资金主要来自于“赠款”,斯卡林格的父亲是一家军事相关热控公司的创始人,一方面较为富有能够为Rivian提供支持;另一方面由于与政府及军方的关系,也为斯卡林格的后续发展带来了各方面的便利。</p>\n<p>早期的几笔款项的主要来源包括佛罗里达州的捐赠及税收贷款、住友集团的战略投资等。</p>\n<p>更大规模的融资则始于2018年,历史上的投资方包括亚马逊、渣打银行、<a href=\"https://laohu8.com/S/F\">福特汽车</a>、贝莱德、及另外一些金融机构。</p>\n<p><img src=\"https://static.tigerbbs.com/069690083de608d6c9dc7f3d5a9913a7\" tg-width=\"846\" tg-height=\"1822\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:企查查</p>\n<p>其中号称“最讨厌特斯拉”的亚马逊在Rivian的融资历史中扮演了重要角色,此外福特也占据了重要位置。</p>\n<p>目前的招股书并未披露股东的具体持股比例,唯一可以确定的是亚马逊和福特的持股比例均超过5%,且亚马逊在股东中排名首位。但此前曾有外媒报道,称亚马逊目前持股比例已经达到公司的四分之一。</p>\n<p><img src=\"https://static.tigerbbs.com/e3b208d940f14aa4be3988885881d6b3\" tg-width=\"854\" tg-height=\"280\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>而根据目前融资总额以及亚马逊投资的了25亿美元计算,IPO前亚马逊的股权占比至少接近25%。</p>\n<p>同时,亚马逊的全球企业和业务发展高级副总裁彼得·克拉维茨(Peter Krawiec)还担任Rivian的董事会成员。</p>\n<p>Rivian与亚马逊的关系重大到让人无法忽略,除了股权上的关系之外,它的收入大头同样来自亚马逊。</p>\n<p>2019年9月时,Rivian已于亚马逊签订协议,将为亚马逊提供EDV货车,用于其最后一英里的物流交付。而 Rivian 计划在 2022 年为亚马逊交付1万 EDV,到 2030 年,共计划交付10万辆。</p>\n<p>而未来具体的订单节奏,会视亚马逊自身物流业务的进展和充电设施布局而定。但至少,未来四年Rivian拥有亚马逊的独家送货车订单,且在之后2年仍然享有优先供应权。</p>\n<p>而另外一位重要股东福特,除了提供资金外,还协助开发原型车。招股书显示,福特在Rivian中的角色主要由其全资子公司 Troy Design and Manufacturing Co.为Rivian提供原型设计和开发服务。从 2019 年到 2020 年底,Rivian 向这家福特子公司共计支付了 7400万美元的服务费用。</p>\n<p><img src=\"https://static.tigerbbs.com/51efa234da33c0b96cd1a76feba4f880\" tg-width=\"836\" tg-height=\"88\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p><b>打造第一台电动皮卡</b></p>\n<p>那么,深受亚马逊和贝索斯倚重的Rivian,魅力到底在哪?</p>\n<p>Rivian与特斯拉不同,它从一开始就选择了一条在美国极其讨喜的赛道——皮卡电动车。</p>\n<p>对于缺少高速公共交通工具的美国人来说,自驾是更加方便的出行方式。同时大多数人拥有自己独立的别墅、车库、草坪和院落,为了打理院子,需要购买诸多工具、材料和日用品;而人力成本在美国非常高,大部分人会选择自己动手。</p>\n<p>因此,啥都能装的皮卡就成为美国人最喜欢的车型,其次是SUV。</p>\n<p>2020年美国汽车销量排行中,前三名福特F系、雪佛兰索罗德和道奇RAM全部是皮卡,第四名之后才开始出现SUV。</p>\n<p><img src=\"https://static.tigerbbs.com/7e54e7d83cbce73793d236bef7986e0c\" tg-width=\"476\" tg-height=\"450\" referrerpolicy=\"no-referrer\"></p>\n<p>而另一方面,面对汽车电动化趋势和日趋严苛的全球排放标准,美国本土作为全球最大的皮卡消费市场,燃油皮卡的电动化替代已然被提上日程。传统皮卡的大排量、高油耗等诸多不利于环保的“弊端”,在纯电动皮卡车型上将不复存在。随着美国政府2035年汽车零排放政策的不断推进,未来的电动皮卡车无疑拥有十分广阔的发展潜力。</p>\n<p>深谙美国市场的Rivian选择专攻电动皮卡,迎合美国车迷的口味,自然就成功了一半。而如今,它也已经成功推出了第一款电动皮卡。</p>\n<p>就算回看几年之前,Rivian也是第一家发布电动皮卡的车企。</p>\n<p>2018年11月,Rivian率先发布了旗下首款电动皮卡R1T;2019年11月22日,特斯拉发布了该公司第一辆电动皮卡,名为Cybertruck。根据特斯拉的消息,截至目前,Cybertruck的订单数量已经超过100万辆。紧随其后的是美国两家老牌车企——<a href=\"https://laohu8.com/S/GM\">通用汽车</a>和福特,它们分别在2020年11月和2021年5月发布了纯电动版本的悍马和F-150。</p>\n<p>虽然时间多次推迟,但9月15日,创始人斯卡林格在推特上宣布,公司首款电动皮卡R1T的第一辆车完成生产并下线。Rivian由此成为第一家将电动皮卡推向市场的汽车制造商。这一时间大幅领先通用、福特等竞争对手,特斯拉的Cybertruck原本计划在今年底交付,但目前也已推迟计划,并预计将于2022年实现下线并于2023年开始量产交付。</p>\n<p><img src=\"https://static.tigerbbs.com/21414a40417e234e0764df210840f6db\" tg-width=\"599\" tg-height=\"466\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:推特</p>\n<p>所以马斯克对Rivian如此针锋相对是有原因的,谁让Rivian领先了一年就下线了第一台车呢?</p>\n<p>除此之外,Rivian还频繁挖角儿,包括特斯拉、福特、FF和迈凯伦在内的多家公司员工和高管都被斯卡林格纳入麾下。虽然被气到发疯的特斯拉起诉过,但Rivian还是继续聘任特斯拉的前高管Kalayjian担任Rivian的工程和产品高级副总裁。</p>\n<p><b>标配皮卡续航里程约500公里</b></p>\n<p>官网上,目前皮卡车型 R1T和SUV车型 R1S都在预售中,可以自行选择配置方案。招股书显示,截至 9 月底,其拥有近 5 万份(48390)R1T 和 R1S 的预定单(每个订单需付1000元可退还的定金)。</p>\n<p><img src=\"https://static.tigerbbs.com/c06c4e6a85071965699410e7e792e59b\" tg-width=\"719\" tg-height=\"648\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:官网</p>\n<p>无论是 R1T、R1S 还是交付给亚马逊的 EDV,Rivian 都采用了「滑板」纯电驱动平台。</p>\n<p>这种「滑板」平台将电机、电池管理系统、冷却系统、悬架系统、液压控制系统全部整合到一个完整的模块中,位于底盘中间。四电机版本的 R1T 可以能实现坦克转向(原地转向)。</p>\n<p><img src=\"https://static.tigerbbs.com/2fdecb910b9ac87c8c867d3bd38b5917\" tg-width=\"555\" tg-height=\"319\" referrerpolicy=\"no-referrer\"></p>\n<p>外表上看,R1T 的外观没有 Cybertruck 那么激进,整个车身保留了传统皮卡的主体框架。通过粗线条的灯带贯穿车头,以及两个长椭圆状的大灯,打造出一个富有科技感的前脸。</p>\n<p>而R1S则选择了全封闭车体,第三排还有两个座椅,但与此同时,装备通道功能就被牺牲了。</p>\n<p><img src=\"https://static.tigerbbs.com/90e238790c3e2658b684eefa03685ee6\" tg-width=\"1080\" tg-height=\"629\" referrerpolicy=\"no-referrer\"></p>\n<p>价格方面,R1T的首批发布的标配款定价约为7.3万美元;计划于今年12月下线的R1S标配版售价则略高2200美元,定价7.55万美元。</p>\n<p><img src=\"https://static.tigerbbs.com/ab7907fa9703ec61fd5e42d2a5177611\" tg-width=\"1080\" tg-height=\"514\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:官网</p>\n<p>由于定位不同,所以两台车在尺寸、重量、容积、有效载荷、续航上有差别。</p>\n<p>日常生活中皮卡经常拉货,需要大扭矩及强散热的需求,这对于电池的要求很高;此外户外环境的高低温对电池也提出了更高的要求。</p>\n<p>R1T的EPA额定里程约为314英里,对应公里数为505左右,而它在高速公路上的续航能力为471.3km,比综合值下降7%,在城市中的续航能力为533.9km,高出综合值5%。</p>\n<p>R1S稍微多一点点为316英里,对应公里数为509左右,它在高速公路上续航能力为476.9km,比综合值下降6%,在城市里的续航能力为533.2km,高出综合值约5%。根据美国环保署的数据,这款纯电SUV的综合能耗为304Wh/km。</p>\n<p><img src=\"https://static.tigerbbs.com/171f205d1e8f0204d13958b5c6dce4ae\" tg-width=\"830\" tg-height=\"330\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>Rivian还表示计划将在2022年1月为R1S推出一款续航超过640km的版本,然后还会推出一款续航约为402km的入门级版本。</p>\n<p>在智能驾驶层面,华尔街见闻此前文章提及:</p>\n<blockquote>\n Rivian的皮卡R1T,不仅具备“坦克转向”的功能,可以实现车辆180度的原地转向,而且其自动驾驶能力也不逊色于特斯拉,R1T标配了L3级别的脱手驾驶辅助系统,配备的硬件装置也在特斯拉之上。\n</blockquote>\n<p>而亚马逊预定10万辆的EDV系列续航里程小得多,因为其主要集中于解决短距离物流的难题。但在容量上EDV系列非常出色,三个版本的容量分别为500、700和900立方英尺。</p>\n<p><img src=\"https://static.tigerbbs.com/d57d3a97749dd246595c05537d5f311e\" tg-width=\"836\" tg-height=\"256\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p><b>加速全面布局</b></p>\n<p>根据招股书披露的信息,由于今年9月第一辆车才刚刚下线,因此公司并未实现营收。而费用方面则主要花费在研发上的,2019-2020年公司分别亏损了4.26亿美元、10.18亿美元,今年上半年公司亏损了9.94亿美元。</p>\n<p><img src=\"https://static.tigerbbs.com/9963700c90ca690915c8964a5ed34419\" tg-width=\"903\" tg-height=\"448\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>其中2020年研发投入约为7.66亿美元,2021年上半年研发投入约为6.83亿美元。</p>\n<p>且预计未来一段时间,Rivian将持续在自建工厂&充电网络上进行投入,同时通过全面生态的商业模式实现收入。</p>\n<p>1、加快自建工厂</p>\n<p>目前正在同步生产R1T和R1S的工厂是诺默尔(Normal)。</p>\n<p>前文已经提过,这个工厂是2017年Rivian买下的三菱旧工厂。该工厂目前的计划产能是15万台,9月15日下线的第一台车就来自这个工厂。</p>\n<p>同时还有一条产线专门生产亚马逊订购的电动送货车 EDV。</p>\n<p>不过Rivian目前并不仅满足于这一个工厂,它还正在美国和英国筹划自建工厂。</p>\n<p>据汽车之心报道,2021年8月美国德克萨斯州Fort Worth经济发展部的一份文件显示,Rivian计划投资50亿美元在美建设第二座工厂,包括汽车制造、汽车零部件组装以及研发中心三个部分。</p>\n<p>这份工厂的计划占地面积约为2000英亩,规划年产能为20万辆汽车,比诺默尔还要多出5万辆。</p>\n<p>此外,据当地媒体报道,Rivian还计划投资10亿英镑,在英国的<a href=\"https://laohu8.com/S/BRS\">布里斯托</a>尔附近建设首个海外产线,不过目前该项目还处在初期。与此同时,德国、荷兰也在与Rivian进行类似的谈判。</p>\n<p>中国市场同样在Rivian的规划内。</p>\n<p>按照计划,在2022年1月R1S这款七座SUV推出后,Rivian也将于2022年在中国推出紧凑型SUV,斯卡林格曾表示:“如果不把中国和欧洲视为重要的长期市场来考虑,我们就不可能真正打造一家汽车公司。”</p>\n<p>并且已经透露过——这些产品最终可能直接在当地生产。</p>\n<p>2、超/快充网络建设</p>\n<p>当前,随着车辆交付在即,Rivian 也在建设直流快充网络和交流快充网络。官方称自家的快充网络为Adventure Network。</p>\n<p>Rivian 将提供快充、目的地充电以及家充等多种方式。其快充的初始充电速率最初为200kW,后续将升级到300kW。</p>\n<p>其中,Rivian计划在2023年在600个站点建立超过3500个直流快充桩。</p>\n<p>在 3500 个快充桩之外,Rivian 同步计划在2023年底前建造10000个目的地充电桩(称为 Rivian Waypoints),支持的最高充电功率为11.5kW,目的地充电桩将主要分布在商超、酒店、餐馆、公园等场所。</p>\n<p>3、构建商业生态</p>\n<p>此外,在Rivian的生态中,还包含了车辆技术、云、产品开发运营、服务和数据分析在内等共六个部分。</p>\n<p><img src=\"https://static.tigerbbs.com/f26b20cfae4a4a364c21d89951af9be7\" tg-width=\"802\" tg-height=\"793\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>随着产品交付日期的临近,Rivian的服务中心已经越来越多,预计仅今年将在美国开设10个体验中心,并在2022年上线更多分店。而Rivian能够提供的服务,除了常规的售后维修、定制升级外,还包含了车辆保险业务、信贷业务,因此做直营模式的 Rivian 没有放弃金融模块的蛋糕,想要掌握客户的保险、信贷业务以及客户体验部分的收益。</p>\n<p>这其中预计(1)通过转售和换新,将在每辆民用车上获利3.45万美元(商用车约1.98万美元);(2)保险信贷业务获利约8700美元(商用车为7400美元);(3)售后服务获利3500美元(商用车6100美元)。</p>\n<p>在软件服务上,Rivian计划在每辆车的生命周期中获得约1.55万美元的收入,包括1万元左右的辅助驾驶功能收费。这与特斯拉的FSD价格也刚好重合。</p>\n<p>通过全生态的构建,加上充电等服务,那么去掉购车款,Rivian的每台民用消费车型在整个生命周期内,预期收入 6.79万美元!</p>\n<p>亚马逊未来4年的10万辆EDV的现金流也将与此接近,单车约为6.46万美元。这也意味着Rivian将拥有强劲的现金流。</p>\n<p><b>尾声</b></p>\n<p>作为后来者,Rivian的首款电动皮卡已经惊艳了市场,并且拉开包括特斯拉在内的竞争对手至少1年以上的时间距离。</p>\n<p>虽然短期Rivian仍然处在巨额投入的周期,可能会继续亏损,但公司目前已经呈现势不可挡的姿态。</p>\n<p>考虑到特斯拉在上市的前几年也都处于亏损中,2020年才出现年度盈利,因此市场留给Rivian的时间还有很多。</p>\n<p>在招股文件的开头,斯卡林格就用一封信简要介绍了Rivian的创业历程:从一张白纸走到现在,因为从不设限,Rivian才充满想象。</p>\n<p><img src=\"https://static.tigerbbs.com/0df4e5cd44323ffc8d44ff94c5288212\" tg-width=\"1080\" tg-height=\"83\" referrerpolicy=\"no-referrer\"></p>\n<p>来源:招股书</p>\n<p>面对迷人但仍然可能充满荆棘的前路,800亿美元的市值对这家初创企业来说可能还只是一个开始。</p>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/e2bc484766922e67d87fdb952e5532ab","relate_stocks":{"RIVN":"Rivian Automotive, Inc.","TSLA":"特斯拉"},"is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1168405895","content_text":"电动皮卡新锐Rivian将于11月10日登陆纳斯达克,此次IPO,将使其成为年度中全球规模最大、最受期待的交易之一。\n据华尔街日报援引知情人士表示,美国加州电动汽车初创公司Rivian在此次备受期待的IPO中,将发行价格定为每股78美元,远高于其上调后的定价区间上限。目前,Rivian的估值已经超过了770亿美元(超4000亿元)。\n该公司得到了亚马逊的支持,预计将通过发行比原计划(80亿美元)更多的股票来筹集约120亿美元的资金。如果募资顺利,那么这一融资规模有望使Rivian成为年内最大的美股IPO,且位居2011年之后美股IPO规模第四。\n据媒体报道,近十年内,美国资本市场中只有三家公司的IPO融资规模超过80亿美元,分别是2014年上市的阿里巴巴(250亿美元)和Facebook(160亿美元),以及2019年上市的Uber(81亿美元)。\n知情人士还表示,在周二晚间,拟出售的股票数量仍在变动,因此具体的数字可能还会发生变化。上周五,Rivian表示,计划以每股72-74美元的价格进行发行,已经远高于其最初的目标价格区间57-62美元。\n在上市之前,Rivian还列出了一长串所谓的“锚定投资者”名单,他们表示有兴趣购买50亿美元的股票。亚马逊和投资公司T. Rowe price Group Inc.、Coatue Management和富兰克林邓普顿(Franklin Templeton)都表示将按IPO价格买入。\n这个更加名副其实的特斯拉“死对头”到底是什么来头?\n成立仅10年,飞速成长\n把Rivian称作特斯拉的“死对头”一点都没有夸张。\n媒体援引摩根士丹利分析师的观点,认为特斯拉在电动车市场的主导地位可能会被Rivian打破。\n而特斯拉本身也一直在关注这位对手。\n对于Rivian的高估值,马斯克曾在推特上回复一位网友对Rivian估值的评论时辛辣回复:“我不想无理取闹,但在IPO之前,每对应10亿美元的估值,他们至少应该交付一辆汽车?”\n\n事实上,就连Rivian的创始人也被视作同马斯克一样具有人格魅力。虽然斯卡林格在推特上的粉丝数量只有马斯克的千分之一,但Rivian还是将「Rivian 的服务与声誉高度依赖斯卡林格」列为公司经营的风险因素之一。\n\n斯卡林格拥有优异的学历背景,博士毕业于MIT的斯隆汽车实验室,刚毕业就勇敢选择了创业这条路,成立Rivian的前身——Avera。\n刚成立时,这家不起眼的公司只有20个人左右,但很快就以一款 2+2 布局的混合动力轿跑车型R1从佛罗里达州政府手里拿到了 200 万美元的「赠款」作为初始资金。\n不过时间到2011年之后,斯卡林格改变了公司的业务方向,搁置了「混合动力」的选择,转而专注于纯电动汽车,将主要开发皮卡和SUV,并将公司正式变更为Rivian。\n改掉旧名字的一个重要原因是Avera曾经被现代汽车注册为商标,并提起了诉讼。不过斯卡林格同时表示新名字同时向公司所在地的Indian River Lagoon致敬。\n由于被搁置,所以2011年公司曾经公开发布的原型车是不是就是这个最初的R1,市场一直并不是很确定。\n\n2015年时,Rivian在密歇根和旧金山湾区设立了研发中心。为了离核心供应商更近,Rivian在同一年将总部从佛罗里达搬到了密歇根州的利沃尼亚,开始构建关于电动智能车的“整个生态系统”,还将原型车推向了共享乘车和无人驾驶汽车市场。\n2017年,Rivian买下了三菱的一处旧厂,该厂位于伊利诺伊州诺默尔市。这一买厂而非建厂的举措也被拿来和特斯拉相比较,后者曾买下加州的新联合汽车制造公司工厂。\n2017年底,Rivian就宣布原型车已经完成,将进入测试阶段。2018年时,Rivian表示将即将推出的皮卡命名为A1T,将SUV命名为A1C,此后又宣布重新命名,宣布这两款车将分别叫R1T和R1S。\n这两款车原计划于2021年6月推出,但由于全球缺芯的影响,R1T的交付一直推迟到了2021年9月才得以实现。7座SUV R1S和商用物流车EDV则计划于今年12月交付。\n背靠亚马逊、福特两棵大树\n2011年才确定战略就进展如此之快,离不开创始人斯卡林格背后的金主们,截至2021年8月,公司已累计募集了约110亿美元,融资规模直接逼近特斯拉上市后的融资。\n早期,Rivian的资金主要来自于“赠款”,斯卡林格的父亲是一家军事相关热控公司的创始人,一方面较为富有能够为Rivian提供支持;另一方面由于与政府及军方的关系,也为斯卡林格的后续发展带来了各方面的便利。\n早期的几笔款项的主要来源包括佛罗里达州的捐赠及税收贷款、住友集团的战略投资等。\n更大规模的融资则始于2018年,历史上的投资方包括亚马逊、渣打银行、福特汽车、贝莱德、及另外一些金融机构。\n\n来源:企查查\n其中号称“最讨厌特斯拉”的亚马逊在Rivian的融资历史中扮演了重要角色,此外福特也占据了重要位置。\n目前的招股书并未披露股东的具体持股比例,唯一可以确定的是亚马逊和福特的持股比例均超过5%,且亚马逊在股东中排名首位。但此前曾有外媒报道,称亚马逊目前持股比例已经达到公司的四分之一。\n\n来源:招股书\n而根据目前融资总额以及亚马逊投资的了25亿美元计算,IPO前亚马逊的股权占比至少接近25%。\n同时,亚马逊的全球企业和业务发展高级副总裁彼得·克拉维茨(Peter Krawiec)还担任Rivian的董事会成员。\nRivian与亚马逊的关系重大到让人无法忽略,除了股权上的关系之外,它的收入大头同样来自亚马逊。\n2019年9月时,Rivian已于亚马逊签订协议,将为亚马逊提供EDV货车,用于其最后一英里的物流交付。而 Rivian 计划在 2022 年为亚马逊交付1万 EDV,到 2030 年,共计划交付10万辆。\n而未来具体的订单节奏,会视亚马逊自身物流业务的进展和充电设施布局而定。但至少,未来四年Rivian拥有亚马逊的独家送货车订单,且在之后2年仍然享有优先供应权。\n而另外一位重要股东福特,除了提供资金外,还协助开发原型车。招股书显示,福特在Rivian中的角色主要由其全资子公司 Troy Design and Manufacturing Co.为Rivian提供原型设计和开发服务。从 2019 年到 2020 年底,Rivian 向这家福特子公司共计支付了 7400万美元的服务费用。\n\n来源:招股书\n打造第一台电动皮卡\n那么,深受亚马逊和贝索斯倚重的Rivian,魅力到底在哪?\nRivian与特斯拉不同,它从一开始就选择了一条在美国极其讨喜的赛道——皮卡电动车。\n对于缺少高速公共交通工具的美国人来说,自驾是更加方便的出行方式。同时大多数人拥有自己独立的别墅、车库、草坪和院落,为了打理院子,需要购买诸多工具、材料和日用品;而人力成本在美国非常高,大部分人会选择自己动手。\n因此,啥都能装的皮卡就成为美国人最喜欢的车型,其次是SUV。\n2020年美国汽车销量排行中,前三名福特F系、雪佛兰索罗德和道奇RAM全部是皮卡,第四名之后才开始出现SUV。\n\n而另一方面,面对汽车电动化趋势和日趋严苛的全球排放标准,美国本土作为全球最大的皮卡消费市场,燃油皮卡的电动化替代已然被提上日程。传统皮卡的大排量、高油耗等诸多不利于环保的“弊端”,在纯电动皮卡车型上将不复存在。随着美国政府2035年汽车零排放政策的不断推进,未来的电动皮卡车无疑拥有十分广阔的发展潜力。\n深谙美国市场的Rivian选择专攻电动皮卡,迎合美国车迷的口味,自然就成功了一半。而如今,它也已经成功推出了第一款电动皮卡。\n就算回看几年之前,Rivian也是第一家发布电动皮卡的车企。\n2018年11月,Rivian率先发布了旗下首款电动皮卡R1T;2019年11月22日,特斯拉发布了该公司第一辆电动皮卡,名为Cybertruck。根据特斯拉的消息,截至目前,Cybertruck的订单数量已经超过100万辆。紧随其后的是美国两家老牌车企——通用汽车和福特,它们分别在2020年11月和2021年5月发布了纯电动版本的悍马和F-150。\n虽然时间多次推迟,但9月15日,创始人斯卡林格在推特上宣布,公司首款电动皮卡R1T的第一辆车完成生产并下线。Rivian由此成为第一家将电动皮卡推向市场的汽车制造商。这一时间大幅领先通用、福特等竞争对手,特斯拉的Cybertruck原本计划在今年底交付,但目前也已推迟计划,并预计将于2022年实现下线并于2023年开始量产交付。\n\n来源:推特\n所以马斯克对Rivian如此针锋相对是有原因的,谁让Rivian领先了一年就下线了第一台车呢?\n除此之外,Rivian还频繁挖角儿,包括特斯拉、福特、FF和迈凯伦在内的多家公司员工和高管都被斯卡林格纳入麾下。虽然被气到发疯的特斯拉起诉过,但Rivian还是继续聘任特斯拉的前高管Kalayjian担任Rivian的工程和产品高级副总裁。\n标配皮卡续航里程约500公里\n官网上,目前皮卡车型 R1T和SUV车型 R1S都在预售中,可以自行选择配置方案。招股书显示,截至 9 月底,其拥有近 5 万份(48390)R1T 和 R1S 的预定单(每个订单需付1000元可退还的定金)。\n\n来源:官网\n无论是 R1T、R1S 还是交付给亚马逊的 EDV,Rivian 都采用了「滑板」纯电驱动平台。\n这种「滑板」平台将电机、电池管理系统、冷却系统、悬架系统、液压控制系统全部整合到一个完整的模块中,位于底盘中间。四电机版本的 R1T 可以能实现坦克转向(原地转向)。\n\n外表上看,R1T 的外观没有 Cybertruck 那么激进,整个车身保留了传统皮卡的主体框架。通过粗线条的灯带贯穿车头,以及两个长椭圆状的大灯,打造出一个富有科技感的前脸。\n而R1S则选择了全封闭车体,第三排还有两个座椅,但与此同时,装备通道功能就被牺牲了。\n\n价格方面,R1T的首批发布的标配款定价约为7.3万美元;计划于今年12月下线的R1S标配版售价则略高2200美元,定价7.55万美元。\n\n来源:官网\n由于定位不同,所以两台车在尺寸、重量、容积、有效载荷、续航上有差别。\n日常生活中皮卡经常拉货,需要大扭矩及强散热的需求,这对于电池的要求很高;此外户外环境的高低温对电池也提出了更高的要求。\nR1T的EPA额定里程约为314英里,对应公里数为505左右,而它在高速公路上的续航能力为471.3km,比综合值下降7%,在城市中的续航能力为533.9km,高出综合值5%。\nR1S稍微多一点点为316英里,对应公里数为509左右,它在高速公路上续航能力为476.9km,比综合值下降6%,在城市里的续航能力为533.2km,高出综合值约5%。根据美国环保署的数据,这款纯电SUV的综合能耗为304Wh/km。\n\n来源:招股书\nRivian还表示计划将在2022年1月为R1S推出一款续航超过640km的版本,然后还会推出一款续航约为402km的入门级版本。\n在智能驾驶层面,华尔街见闻此前文章提及:\n\n Rivian的皮卡R1T,不仅具备“坦克转向”的功能,可以实现车辆180度的原地转向,而且其自动驾驶能力也不逊色于特斯拉,R1T标配了L3级别的脱手驾驶辅助系统,配备的硬件装置也在特斯拉之上。\n\n而亚马逊预定10万辆的EDV系列续航里程小得多,因为其主要集中于解决短距离物流的难题。但在容量上EDV系列非常出色,三个版本的容量分别为500、700和900立方英尺。\n\n来源:招股书\n加速全面布局\n根据招股书披露的信息,由于今年9月第一辆车才刚刚下线,因此公司并未实现营收。而费用方面则主要花费在研发上的,2019-2020年公司分别亏损了4.26亿美元、10.18亿美元,今年上半年公司亏损了9.94亿美元。\n\n来源:招股书\n其中2020年研发投入约为7.66亿美元,2021年上半年研发投入约为6.83亿美元。\n且预计未来一段时间,Rivian将持续在自建工厂&充电网络上进行投入,同时通过全面生态的商业模式实现收入。\n1、加快自建工厂\n目前正在同步生产R1T和R1S的工厂是诺默尔(Normal)。\n前文已经提过,这个工厂是2017年Rivian买下的三菱旧工厂。该工厂目前的计划产能是15万台,9月15日下线的第一台车就来自这个工厂。\n同时还有一条产线专门生产亚马逊订购的电动送货车 EDV。\n不过Rivian目前并不仅满足于这一个工厂,它还正在美国和英国筹划自建工厂。\n据汽车之心报道,2021年8月美国德克萨斯州Fort Worth经济发展部的一份文件显示,Rivian计划投资50亿美元在美建设第二座工厂,包括汽车制造、汽车零部件组装以及研发中心三个部分。\n这份工厂的计划占地面积约为2000英亩,规划年产能为20万辆汽车,比诺默尔还要多出5万辆。\n此外,据当地媒体报道,Rivian还计划投资10亿英镑,在英国的布里斯托尔附近建设首个海外产线,不过目前该项目还处在初期。与此同时,德国、荷兰也在与Rivian进行类似的谈判。\n中国市场同样在Rivian的规划内。\n按照计划,在2022年1月R1S这款七座SUV推出后,Rivian也将于2022年在中国推出紧凑型SUV,斯卡林格曾表示:“如果不把中国和欧洲视为重要的长期市场来考虑,我们就不可能真正打造一家汽车公司。”\n并且已经透露过——这些产品最终可能直接在当地生产。\n2、超/快充网络建设\n当前,随着车辆交付在即,Rivian 也在建设直流快充网络和交流快充网络。官方称自家的快充网络为Adventure Network。\nRivian 将提供快充、目的地充电以及家充等多种方式。其快充的初始充电速率最初为200kW,后续将升级到300kW。\n其中,Rivian计划在2023年在600个站点建立超过3500个直流快充桩。\n在 3500 个快充桩之外,Rivian 同步计划在2023年底前建造10000个目的地充电桩(称为 Rivian Waypoints),支持的最高充电功率为11.5kW,目的地充电桩将主要分布在商超、酒店、餐馆、公园等场所。\n3、构建商业生态\n此外,在Rivian的生态中,还包含了车辆技术、云、产品开发运营、服务和数据分析在内等共六个部分。\n\n来源:招股书\n随着产品交付日期的临近,Rivian的服务中心已经越来越多,预计仅今年将在美国开设10个体验中心,并在2022年上线更多分店。而Rivian能够提供的服务,除了常规的售后维修、定制升级外,还包含了车辆保险业务、信贷业务,因此做直营模式的 Rivian 没有放弃金融模块的蛋糕,想要掌握客户的保险、信贷业务以及客户体验部分的收益。\n这其中预计(1)通过转售和换新,将在每辆民用车上获利3.45万美元(商用车约1.98万美元);(2)保险信贷业务获利约8700美元(商用车为7400美元);(3)售后服务获利3500美元(商用车6100美元)。\n在软件服务上,Rivian计划在每辆车的生命周期中获得约1.55万美元的收入,包括1万元左右的辅助驾驶功能收费。这与特斯拉的FSD价格也刚好重合。\n通过全生态的构建,加上充电等服务,那么去掉购车款,Rivian的每台民用消费车型在整个生命周期内,预期收入 6.79万美元!\n亚马逊未来4年的10万辆EDV的现金流也将与此接近,单车约为6.46万美元。这也意味着Rivian将拥有强劲的现金流。\n尾声\n作为后来者,Rivian的首款电动皮卡已经惊艳了市场,并且拉开包括特斯拉在内的竞争对手至少1年以上的时间距离。\n虽然短期Rivian仍然处在巨额投入的周期,可能会继续亏损,但公司目前已经呈现势不可挡的姿态。\n考虑到特斯拉在上市的前几年也都处于亏损中,2020年才出现年度盈利,因此市场留给Rivian的时间还有很多。\n在招股文件的开头,斯卡林格就用一封信简要介绍了Rivian的创业历程:从一张白纸走到现在,因为从不设限,Rivian才充满想象。\n\n来源:招股书\n面对迷人但仍然可能充满荆棘的前路,800亿美元的市值对这家初创企业来说可能还只是一个开始。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1795,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":862488127,"gmtCreate":1632902425975,"gmtModify":1632902425975,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"……","listText":"……","text":"……","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/862488127","repostId":"1183350918","repostType":4,"repost":{"id":"1183350918","kind":"news","pubTimestamp":1632899154,"share":"https://www.laohu8.com/m/news/1183350918?lang=&edition=full","pubTime":"2021-09-29 15:05","market":"sh","language":"zh","title":"网信办:坚持风险防控,推进算法分级分类安全管理","url":"https://stock-news.laohu8.com/highlight/detail?id=1183350918","media":"中国网信网","summary":"摘要: 意见提出,利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。意见提出,健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要","content":"<blockquote>\n 摘要: 意见提出,利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。意见提出,健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要求和法律责任等,完善算法安全治理措施,制定标准、指南等配套文件。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展和社会管理等方面的风险隐患。\n</blockquote>\n<p><img src=\"https://static.tigerbbs.com/3f7380c13ee80ef1df9af05824618fe4\" tg-width=\"1413\" tg-height=\"796\" referrerpolicy=\"no-referrer\"></p>\n<p><b>关于加强互联网信息服务算法综合治理的指导意见</b></p>\n<p>近年来,互联网信息服务算法(以下简称“算法”)在加速互联网信息传播、繁荣数字经济、促进社会发展等方面发挥了重要作用。与此同时,算法不合理应用也影响了正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。为深入贯彻落实党中央、国务院决策部署,管理好使用好发展好算法应用,全面提升网络综合治理能力,现就加强互联网信息服务算法安全治理提出如下意见。</p>\n<p><b>一、总体要求</b></p>\n<p>(一)指导思想</p>\n<p>坚持以习近平新时代中国特色社会主义思想特别是习近平总书记关于网络强国的重要思想为指导,深入贯彻党的十九大和十九届二中、三中、四中、五中全会精神,坚持正能量是总要求、管得住是硬道理、用得好是真本事,以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。</p>\n<p>(二)基本原则</p>\n<p>坚持正确导向,强化科技伦理意识、安全意识和底线思维,充分发挥算法服务正能量传播作用,营造风清气正的网络空间;坚持依法治理,加强法律法规建设,创新技术监管模式,打击违法违规行为,建立健全多方参与的算法安全治理机制;坚持风险防控,推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理;坚持权益保障,引导算法应用公平公正、透明可释,充分保障网民合法权益;坚持技术创新,大力推进我国算法创新研究工作,保护算法知识产权,强化自研算法的部署和推广,提升我国算法的核心竞争力。</p>\n<p>(三)主要目标</p>\n<p>利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。</p>\n<p>——治理机制健全。制定完善互联网信息服务算法安全治理政策法规,算法安全治理的主体权责明确,治理结构高效运行,形成有法可依、多元协同、多方参与的治理机制。</p>\n<p>——监管体系完善。创新性地构建形成算法安全风险监测、算法安全评估、科技伦理审查、算法备案管理和涉算法违法违规行为处置等多维一体的监管体系。</p>\n<p>——算法生态规范。算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。</p>\n<p><b>二、健全算法安全治理机制</b></p>\n<p>(一)加强算法治理规范。健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要求和法律责任等,完善算法安全治理措施,制定标准、指南等配套文件。</p>\n<p>(二)优化算法治理结构。进一步明确政府、企业、行业组织和网民在算法安全治理中的权利、义务和责任,科学合理布局治理组织结构,规范运作、相互衔接,打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面。</p>\n<p>(三)强化统筹协同治理。网信部门会同宣传、教育、科技、工信、公安、文化和旅游、市场监管、广电等部门,建立部门协同联动长效机制,履行监管职责,共同开展算法安全治理工作。</p>\n<p>(四)强化企业主体责任。企业应建立算法安全责任制度和科技伦理审查制度,健全算法安全管理组织机构,加强风险防控和隐患排查治理,提升应对算法安全突发事件的能力和水平。企业应强化责任意识,对算法应用产生的结果负主体责任。</p>\n<p>(五)强化行业组织自律。互联网信息服务行业应当加强行业自律,积极开展算法科学技术普及工作,逐步组建算法安全治理力量,吸引专业人才队伍,汇聚多方资源投入,承担算法安全治理社会责任,为算法安全治理提供有力支撑。</p>\n<p>(六)倡导网民监督参与。鼓励广大网民积极参与算法安全治理工作,切实加强政府、企业、行业组织和网民间的信息交流和有效沟通。政府积极受理网民举报投诉,企业自觉接受社会监督并及时做好结果反馈。</p>\n<p><b>三、构建算法安全监管体系</b></p>\n<p>(七)有效监测算法安全风险。对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势、市场规则变化、网民行为等信息,预警算法应用可能产生的不规范、不公平、不公正等隐患,发现算法应用安全问题。</p>\n<p>(八)积极开展算法安全评估。组织建立专业技术评估队伍,深入分析算法机制机理,评估算法设计、部署和使用等应用环节的缺陷和漏洞,研判算法应用产生的意识形态、社会公平、道德伦理等安全风险,提出针对性应对措施。</p>\n<p>(九)有序推进算法备案工作。建立算法备案制度,梳理算法备案基本情况,健全算法分级分类体系,明确算法备案范围,有序开展备案工作。积极做好备案指导帮助,主动公布备案情况,接受社会监督。</p>\n<p>(十)持续推进监管模式创新。持续研判算法领域技术发展新形势,推进监管模式与算法技术协同发展,不断完善、升级、创新监管的方式方法和治理举措,防范监管模式落后导致的算法安全风险。</p>\n<p>(十一)严厉打击违法违规行为。着力解决网民反映强烈的算法安全问题,对算法监测、评估、备案等工作中发现的、以及网民举报并查实的涉算法违法违规行为,予以严厉打击,坚决维护互联网信息服务算法安全。</p>\n<p><b>四、促进算法生态规范发展</b></p>\n<p>(十二)树立算法正确导向。弘扬社会主义核心价值观,在算法应用中坚持正确政治方向、舆论导向、价值取向。提高正能量传播的精准性和有效性,规范信息分发行为和秩序,推动企业借助算法加强正能量传播,引导算法应用向上向善。</p>\n<p>(十三)推动算法公开透明。规范企业算法应用行为,保护网民合理权益,秉持公平、公正原则,促进算法公开透明。督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释,畅通投诉通道,消除社会疑虑,推动算法健康发展。</p>\n<p>(十四)鼓励算法创新发展。提升算法创新能力,积极开展算法研发工作,支持算法与社会、经济各领域深度结合。提高算法自主可控能力,加强知识产权保护,提高自研算法产品的推广和使用,增强算法核心竞争力。</p>\n<p>(十五)防范算法滥用风险。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展和社会管理等方面的风险隐患。</p>","source":"lsy1603719063632","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>网信办:坚持风险防控,推进算法分级分类安全管理</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n网信办:坚持风险防控,推进算法分级分类安全管理\n</h2>\n\n<h4 class=\"meta\">\n\n\n2021-09-29 15:05 北京时间 <a href=http://www.cac.gov.cn/2021-09/29/c_1634507915623047.htm><strong>中国网信网</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>摘要: 意见提出,利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。意见提出,健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要求和法律责任等,完善算法安全治理措施,制定标准、指南等配套文件。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展...</p>\n\n<a href=\"http://www.cac.gov.cn/2021-09/29/c_1634507915623047.htm\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/0acb43fa5698973cd01dfe47092b0faf","relate_stocks":{},"source_url":"http://www.cac.gov.cn/2021-09/29/c_1634507915623047.htm","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1183350918","content_text":"摘要: 意见提出,利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。意见提出,健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要求和法律责任等,完善算法安全治理措施,制定标准、指南等配套文件。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展和社会管理等方面的风险隐患。\n\n\n关于加强互联网信息服务算法综合治理的指导意见\n近年来,互联网信息服务算法(以下简称“算法”)在加速互联网信息传播、繁荣数字经济、促进社会发展等方面发挥了重要作用。与此同时,算法不合理应用也影响了正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。为深入贯彻落实党中央、国务院决策部署,管理好使用好发展好算法应用,全面提升网络综合治理能力,现就加强互联网信息服务算法安全治理提出如下意见。\n一、总体要求\n(一)指导思想\n坚持以习近平新时代中国特色社会主义思想特别是习近平总书记关于网络强国的重要思想为指导,深入贯彻党的十九大和十九届二中、三中、四中、五中全会精神,坚持正能量是总要求、管得住是硬道理、用得好是真本事,以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。\n(二)基本原则\n坚持正确导向,强化科技伦理意识、安全意识和底线思维,充分发挥算法服务正能量传播作用,营造风清气正的网络空间;坚持依法治理,加强法律法规建设,创新技术监管模式,打击违法违规行为,建立健全多方参与的算法安全治理机制;坚持风险防控,推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理;坚持权益保障,引导算法应用公平公正、透明可释,充分保障网民合法权益;坚持技术创新,大力推进我国算法创新研究工作,保护算法知识产权,强化自研算法的部署和推广,提升我国算法的核心竞争力。\n(三)主要目标\n利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。\n——治理机制健全。制定完善互联网信息服务算法安全治理政策法规,算法安全治理的主体权责明确,治理结构高效运行,形成有法可依、多元协同、多方参与的治理机制。\n——监管体系完善。创新性地构建形成算法安全风险监测、算法安全评估、科技伦理审查、算法备案管理和涉算法违法违规行为处置等多维一体的监管体系。\n——算法生态规范。算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。\n二、健全算法安全治理机制\n(一)加强算法治理规范。健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要求和法律责任等,完善算法安全治理措施,制定标准、指南等配套文件。\n(二)优化算法治理结构。进一步明确政府、企业、行业组织和网民在算法安全治理中的权利、义务和责任,科学合理布局治理组织结构,规范运作、相互衔接,打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面。\n(三)强化统筹协同治理。网信部门会同宣传、教育、科技、工信、公安、文化和旅游、市场监管、广电等部门,建立部门协同联动长效机制,履行监管职责,共同开展算法安全治理工作。\n(四)强化企业主体责任。企业应建立算法安全责任制度和科技伦理审查制度,健全算法安全管理组织机构,加强风险防控和隐患排查治理,提升应对算法安全突发事件的能力和水平。企业应强化责任意识,对算法应用产生的结果负主体责任。\n(五)强化行业组织自律。互联网信息服务行业应当加强行业自律,积极开展算法科学技术普及工作,逐步组建算法安全治理力量,吸引专业人才队伍,汇聚多方资源投入,承担算法安全治理社会责任,为算法安全治理提供有力支撑。\n(六)倡导网民监督参与。鼓励广大网民积极参与算法安全治理工作,切实加强政府、企业、行业组织和网民间的信息交流和有效沟通。政府积极受理网民举报投诉,企业自觉接受社会监督并及时做好结果反馈。\n三、构建算法安全监管体系\n(七)有效监测算法安全风险。对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势、市场规则变化、网民行为等信息,预警算法应用可能产生的不规范、不公平、不公正等隐患,发现算法应用安全问题。\n(八)积极开展算法安全评估。组织建立专业技术评估队伍,深入分析算法机制机理,评估算法设计、部署和使用等应用环节的缺陷和漏洞,研判算法应用产生的意识形态、社会公平、道德伦理等安全风险,提出针对性应对措施。\n(九)有序推进算法备案工作。建立算法备案制度,梳理算法备案基本情况,健全算法分级分类体系,明确算法备案范围,有序开展备案工作。积极做好备案指导帮助,主动公布备案情况,接受社会监督。\n(十)持续推进监管模式创新。持续研判算法领域技术发展新形势,推进监管模式与算法技术协同发展,不断完善、升级、创新监管的方式方法和治理举措,防范监管模式落后导致的算法安全风险。\n(十一)严厉打击违法违规行为。着力解决网民反映强烈的算法安全问题,对算法监测、评估、备案等工作中发现的、以及网民举报并查实的涉算法违法违规行为,予以严厉打击,坚决维护互联网信息服务算法安全。\n四、促进算法生态规范发展\n(十二)树立算法正确导向。弘扬社会主义核心价值观,在算法应用中坚持正确政治方向、舆论导向、价值取向。提高正能量传播的精准性和有效性,规范信息分发行为和秩序,推动企业借助算法加强正能量传播,引导算法应用向上向善。\n(十三)推动算法公开透明。规范企业算法应用行为,保护网民合理权益,秉持公平、公正原则,促进算法公开透明。督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释,畅通投诉通道,消除社会疑虑,推动算法健康发展。\n(十四)鼓励算法创新发展。提升算法创新能力,积极开展算法研发工作,支持算法与社会、经济各领域深度结合。提高算法自主可控能力,加强知识产权保护,提高自研算法产品的推广和使用,增强算法核心竞争力。\n(十五)防范算法滥用风险。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展和社会管理等方面的风险隐患。","news_type":1},"isVote":1,"tweetType":1,"viewCount":966,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":838749021,"gmtCreate":1629432100263,"gmtModify":1629435151236,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸","listText":"业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸","text":"业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":3,"repostSize":0,"link":"https://laohu8.com/post/838749021","repostId":"1191695638","repostType":4,"isVote":1,"tweetType":1,"viewCount":1742,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3506462233722179","authorId":"3506462233722179","name":"请输入昵称已阅读","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":6,"crmLevelSwitch":0,"idStr":"3506462233722179","authorIdStr":"3506462233722179"},"content":"为什么不制裁这个,只制裁滴滴","text":"为什么不制裁这个,只制裁滴滴","html":"为什么不制裁这个,只制裁滴滴"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":170245996,"gmtCreate":1626439262215,"gmtModify":1626439262215,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来","listText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来","text":"$滴滴(DIDI)$七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/170245996","isVote":1,"tweetType":1,"viewCount":1684,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":155837207,"gmtCreate":1625399982009,"gmtModify":1625399982009,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"国家安全重大漏洞居然现在才开始整治","listText":"国家安全重大漏洞居然现在才开始整治","text":"国家安全重大漏洞居然现在才开始整治","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":9,"commentSize":4,"repostSize":0,"link":"https://laohu8.com/post/155837207","repostId":"1155046075","repostType":4,"isVote":1,"tweetType":1,"viewCount":1992,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3549871285956389","authorId":"3549871285956389","name":"让子弹再飞一会","avatar":"https://static.tigerbbs.com/cfd513996b2ed568c822a25e7a5f7284","crmLevel":7,"crmLevelSwitch":1,"idStr":"3549871285956389","authorIdStr":"3549871285956389"},"content":"赶在尚方宝剑来之前割一茬","text":"赶在尚方宝剑来之前割一茬","html":"赶在尚方宝剑来之前割一茬"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":198102009,"gmtCreate":1620943331301,"gmtModify":1620943331301,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪","listText":"中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪","text":"中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/198102009","repostId":"2134611827","repostType":2,"repost":{"id":"2134611827","kind":"news","pubTimestamp":1620827783,"share":"https://www.laohu8.com/m/news/2134611827?lang=&edition=full","pubTime":"2021-05-12 21:56","market":"us","language":"zh","title":"苹果公司遭反垄断集体诉讼,英国消费者寻求15亿英镑赔偿","url":"https://stock-news.laohu8.com/highlight/detail?id=2134611827","media":"南方都市报","summary":"苹果公司又一次因为“苹果税”陷入反垄断纠纷中。5月11日,苹果公司在英国伦敦遭到集体诉讼,该公司被指控滥用市场支配地位在App Store上收取30%的标准佣金率过高。这起在英国竞争上诉法庭发起的诉讼,计划向苹果公司寻求高达15亿英镑的赔偿。随后Epic以垄断为由将苹果告上法庭。对此苹果公司回应,上述指控与公平竞争的原则背道而驰。苹果公司可提出书面答复,并要求举行听证会,以回应监管担忧。","content":"<html><body><article><p><a href=\"https://laohu8.com/S/AAPL\">苹果</a>公司又一次因为“苹果税”陷入反垄断纠纷中。</p><p>5月11日,苹果公司在英国伦敦遭到集体诉讼,该公司被指控滥用市场支配地位在App Store上收取30%的标准佣金率过高。苹果公司则在一份声明中回应,诉讼“毫无依据”。</p><p>这起在英国竞争上诉法庭(CAT)发起的诉讼,计划向苹果公司寻求高达15亿英镑(约136.5亿人民币)的赔偿。自2015年10月以来,在苹果App Store购买付费应用、付费订阅或其他应用内购服务的用户都有权获得赔偿。</p><p>据外媒报道,基于自2015年CAT实施的“选择退出”原则,所有受影响的用户都可从中获赔,除非他们决定将自己排除在外。但这样的集体诉讼需要得到法庭的批准。</p><p>“我正代表1960万英国消费者采取集体行动,指控苹果公司违反竞争法……”5月11日,本案的主要原告、伦敦国王学院关注数字经济的讲师瑞切尔·肯特(RachaelKent)在社交媒体上发声。</p><p>原告方认为,苹果意在排除潜在竞争,要求只能使用苹果的支付处理系统,并对每一笔应用内付费销售额收取30%的佣金,由此产生的抽成费用由消费者买单,损害了消费者利益。</p><p>“如果允许接入竞争者平台或其他支付系统,苹果将无法征收这些高额费用。”肯特在接受媒体采访时表示,“这是垄断者的行为,不可接受。”</p><p>针对这起诉讼,苹果公开回应称“毫无依据”,愿意和法庭探讨公司在消费者保护方面的承诺,以及App Store为英国创新经济带来的帮助。</p><p>同时苹果公司强调,抽取30%费用是数字平台的主流做法。现在绝大多数开发商需要支付的佣金已降为15%,而且App Store内有84%的应用程序都是免费的,开发人员无须支付任何费用。</p><p>南都记者此前报道,去年11月,苹果宣布从2021年1月启动一项针对小型企业的计划,年收入不到100万美元和新加入的开发者在App Store的抽成费率将从30%降低为15%。</p><p>尽管如此,苹果还是饱受“苹果税”争议困扰。眼下,苹果正忙着与《堡垒之夜》游戏开发商Epic Games打官司。此前,Epic曾尝试在游戏内加入绕过苹果支付机制的充值选项,结果《堡垒之夜》遭到下架。随后Epic以垄断为由将苹果告上法庭。</p><p>今年5月3日,美国加州的法院正式开庭审理此案。Epic认为苹果在App Store建筑了“围墙花园”,苹果则否认存在滥用市场支配地位行为。目前庭审还在进行,将为期三周。</p><p>欧洲的反垄断执法机构同样关注“苹果税”。最近,苹果公司收到欧盟委员会发送的一份异议声明,称其滥用在App Store的主导地位对竞争对手施加不公平限制,扭曲音乐流媒体市场竞争。对此苹果公司回应,上述指控与公平竞争的原则背道而驰。</p><p>据悉,欧委会4月30日发布的异议声明并非最终调查结果。苹果公司可提出书面答复,并要求举行听证会,以回应监管担忧。</p><p>综合/编译 南都记者李玲</p></article></body></html>","source":"tencent","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>苹果公司遭反垄断集体诉讼,英国消费者寻求15亿英镑赔偿</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n苹果公司遭反垄断集体诉讼,英国消费者寻求15亿英镑赔偿\n</h2>\n\n<h4 class=\"meta\">\n\n\n2021-05-12 21:56 北京时间 <a href=http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN2021051221582377e712c7&s=b><strong>南方都市报</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>苹果公司又一次因为“苹果税”陷入反垄断纠纷中。5月11日,苹果公司在英国伦敦遭到集体诉讼,该公司被指控滥用市场支配地位在App Store上收取30%的标准佣金率过高。苹果公司则在一份声明中回应,诉讼“毫无依据”。这起在英国竞争上诉法庭(CAT)发起的诉讼,计划向苹果公司寻求高达15亿英镑(约136.5亿人民币)的赔偿。自2015年10月以来,在苹果App Store购买付费应用、付费订阅或其他...</p>\n\n<a href=\"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN2021051221582377e712c7&s=b\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/cdebdfe62273ac806dc3a657b1ca6182","relate_stocks":{"AAPL":"苹果","09086":"华夏纳指-U","03086":"华夏纳指"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN2021051221582377e712c7&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/9a95c1376e76363c1401fee7d3717173","article_id":"2134611827","content_text":"苹果公司又一次因为“苹果税”陷入反垄断纠纷中。5月11日,苹果公司在英国伦敦遭到集体诉讼,该公司被指控滥用市场支配地位在App Store上收取30%的标准佣金率过高。苹果公司则在一份声明中回应,诉讼“毫无依据”。这起在英国竞争上诉法庭(CAT)发起的诉讼,计划向苹果公司寻求高达15亿英镑(约136.5亿人民币)的赔偿。自2015年10月以来,在苹果App Store购买付费应用、付费订阅或其他应用内购服务的用户都有权获得赔偿。据外媒报道,基于自2015年CAT实施的“选择退出”原则,所有受影响的用户都可从中获赔,除非他们决定将自己排除在外。但这样的集体诉讼需要得到法庭的批准。“我正代表1960万英国消费者采取集体行动,指控苹果公司违反竞争法……”5月11日,本案的主要原告、伦敦国王学院关注数字经济的讲师瑞切尔·肯特(RachaelKent)在社交媒体上发声。原告方认为,苹果意在排除潜在竞争,要求只能使用苹果的支付处理系统,并对每一笔应用内付费销售额收取30%的佣金,由此产生的抽成费用由消费者买单,损害了消费者利益。“如果允许接入竞争者平台或其他支付系统,苹果将无法征收这些高额费用。”肯特在接受媒体采访时表示,“这是垄断者的行为,不可接受。”针对这起诉讼,苹果公开回应称“毫无依据”,愿意和法庭探讨公司在消费者保护方面的承诺,以及App Store为英国创新经济带来的帮助。同时苹果公司强调,抽取30%费用是数字平台的主流做法。现在绝大多数开发商需要支付的佣金已降为15%,而且App Store内有84%的应用程序都是免费的,开发人员无须支付任何费用。南都记者此前报道,去年11月,苹果宣布从2021年1月启动一项针对小型企业的计划,年收入不到100万美元和新加入的开发者在App Store的抽成费率将从30%降低为15%。尽管如此,苹果还是饱受“苹果税”争议困扰。眼下,苹果正忙着与《堡垒之夜》游戏开发商Epic Games打官司。此前,Epic曾尝试在游戏内加入绕过苹果支付机制的充值选项,结果《堡垒之夜》遭到下架。随后Epic以垄断为由将苹果告上法庭。今年5月3日,美国加州的法院正式开庭审理此案。Epic认为苹果在App Store建筑了“围墙花园”,苹果则否认存在滥用市场支配地位行为。目前庭审还在进行,将为期三周。欧洲的反垄断执法机构同样关注“苹果税”。最近,苹果公司收到欧盟委员会发送的一份异议声明,称其滥用在App Store的主导地位对竞争对手施加不公平限制,扭曲音乐流媒体市场竞争。对此苹果公司回应,上述指控与公平竞争的原则背道而驰。据悉,欧委会4月30日发布的异议声明并非最终调查结果。苹果公司可提出书面答复,并要求举行听证会,以回应监管担忧。综合/编译 南都记者李玲","news_type":1},"isVote":1,"tweetType":1,"viewCount":1558,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":198106946,"gmtCreate":1620943256485,"gmtModify":1620943256485,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪","listText":"中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪","text":"中国公司和政府应该在相关诉讼中学到什么?反垄断不应只局限在阿里美团之类公司,是时候把苹果安卓纳入黑名单了,鸿濛加油💪","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/198106946","repostId":"2135106641","repostType":2,"isVote":1,"tweetType":1,"viewCount":1565,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":105342855,"gmtCreate":1620273686377,"gmtModify":1620326785800,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。","listText":"美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。","text":"美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。","images":[],"top":1,"highlighted":2,"essential":1,"paper":1,"likeSize":9,"commentSize":9,"repostSize":0,"link":"https://laohu8.com/post/105342855","repostId":"1125870095","repostType":4,"isVote":1,"tweetType":1,"viewCount":2435,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3558405012288723","authorId":"3558405012288723","name":"请你涨","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":2,"crmLevelSwitch":0,"idStr":"3558405012288723","authorIdStr":"3558405012288723"},"content":"可以根据变异的继续生产新的啊 而且用一个例子来说明问题也太武断了吧 那个教授年纪也很大了 而且怎么就拍马屁了 做点好事夸一下就是拍马屁?能不能理性点","text":"可以根据变异的继续生产新的啊 而且用一个例子来说明问题也太武断了吧 那个教授年纪也很大了 而且怎么就拍马屁了 做点好事夸一下就是拍马屁?能不能理性点","html":"可以根据变异的继续生产新的啊 而且用一个例子来说明问题也太武断了吧 那个教授年纪也很大了 而且怎么就拍马屁了 做点好事夸一下就是拍马屁?能不能理性点"}],"imageCount":0,"langContent":"CN","totalScore":0}],"hots":[{"id":105342855,"gmtCreate":1620273686377,"gmtModify":1620326785800,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。","listText":"美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。","text":"美国摩钠得公司放弃现有mRNA编码专利,看到一群人马屁拍得山响,就没进一步想想,及联系到昨天印度yi美国传染病学家在注射mRNA疫苗后回印度感染变异新冠死亡,这意味着现有mRNA编码对变异新冠是无效的,资本是冷酷嗜血的,别乱㖭。","images":[],"top":1,"highlighted":2,"essential":1,"paper":1,"likeSize":9,"commentSize":9,"repostSize":0,"link":"https://laohu8.com/post/105342855","repostId":"1125870095","repostType":4,"isVote":1,"tweetType":1,"viewCount":2435,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3558405012288723","authorId":"3558405012288723","name":"请你涨","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":2,"crmLevelSwitch":0,"idStr":"3558405012288723","authorIdStr":"3558405012288723"},"content":"可以根据变异的继续生产新的啊 而且用一个例子来说明问题也太武断了吧 那个教授年纪也很大了 而且怎么就拍马屁了 做点好事夸一下就是拍马屁?能不能理性点","text":"可以根据变异的继续生产新的啊 而且用一个例子来说明问题也太武断了吧 那个教授年纪也很大了 而且怎么就拍马屁了 做点好事夸一下就是拍马屁?能不能理性点","html":"可以根据变异的继续生产新的啊 而且用一个例子来说明问题也太武断了吧 那个教授年纪也很大了 而且怎么就拍马屁了 做点好事夸一下就是拍马屁?能不能理性点"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":306245643,"gmtCreate":1604411611382,"gmtModify":1703832958420,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"说话的代价太大,容不得不同的声音","listText":"说话的代价太大,容不得不同的声音","text":"说话的代价太大,容不得不同的声音","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":17,"commentSize":3,"repostSize":0,"link":"https://laohu8.com/post/306245643","repostId":"1179447676","repostType":4,"isVote":1,"tweetType":1,"viewCount":1233,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3485728882911187","authorId":"3485728882911187","name":"申屠青竹","avatar":"https://static.tigerbbs.com/27eba484160e82091e8187ad8179e2f3","crmLevel":1,"crmLevelSwitch":1,"idStr":"3485728882911187","authorIdStr":"3485728882911187"},"content":"我服了,,你好好看看他都说了啥好吧 巴塞尔协定都不想要,蚂蚁就30亿资本金,放了上万亿贷款。知道资本金啥意思不?就是最多亏本的上限,万一有系统性金融风险,你余额宝和余额的钱就不保了。 你猜有多少人存了几十上百万。。","text":"我服了,,你好好看看他都说了啥好吧 巴塞尔协定都不想要,蚂蚁就30亿资本金,放了上万亿贷款。知道资本金啥意思不?就是最多亏本的上限,万一有系统性金融风险,你余额宝和余额的钱就不保了。 你猜有多少人存了几十上百万。。","html":"我服了,,你好好看看他都说了啥好吧 巴塞尔协定都不想要,蚂蚁就30亿资本金,放了上万亿贷款。知道资本金啥意思不?就是最多亏本的上限,万一有系统性金融风险,你余额宝和余额的钱就不保了。 你猜有多少人存了几十上百万。。"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":398440721,"gmtCreate":1606951153763,"gmtModify":1703845587106,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"沪深股市骗子公司横行霸道却的就是这样的法律,县城的路不走非要摸着石头过河.....","listText":"沪深股市骗子公司横行霸道却的就是这样的法律,县城的路不走非要摸着石头过河.....","text":"沪深股市骗子公司横行霸道却的就是这样的法律,县城的路不走非要摸着石头过河.....","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":17,"commentSize":2,"repostSize":0,"link":"https://laohu8.com/post/398440721","repostId":"1193074976","repostType":4,"repost":{"id":"1193074976","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1606949173,"share":"https://www.laohu8.com/m/news/1193074976?lang=&edition=full","pubTime":"2020-12-03 06:46","market":"us","language":"zh","title":"美众议院表决通过《外国公司问责法》,部分中概股盘后走低","url":"https://stock-news.laohu8.com/highlight/detail?id=1193074976","media":"老虎资讯综合","summary":"12月3日讯,美国众议院当地时间周三表决通过《外国公司问责法》,该法案要求,外国发行人连续三年不能满足美国公众公司会计监督委员会(PCAOB)对会计师事务所检查要求的,禁止其证券在美国交易。该议案已于","content":"<p>12月3日讯,美国众议院当地时间周三表决通过《外国公司问责法》,该法案要求,外国发行人连续三年不能满足美国公众公司会计监督委员会(PCAOB)对会计师事务所检查要求的,禁止其证券在美国交易。该议案已于今年5月在美国参议院获得通过。</p><p>对此,在北京时间周三举行的外交部例行发布会上,发言人华春莹表示,此举再次表明,美国对中国公司采取歧视性政策,对中国企业进行政治打压。在资本市场高度全球化的今天,有关各方开诚布公地就加强跨境监管合作、保护投资者合法权益等议题加强对话和合作才是解决问题的正道。我们坚决反对将证券监管政治化的做法。我们希望美方能够为外国企业在美国的投资经营提供公平、公正、非歧视的环境,而不是想方设法设置种种障碍。</p><p>部分中概股盘后走低,<a href=\"https://laohu8.com/S/XPEV\">小鹏汽车</a>盘后跌超4%,<a href=\"https://laohu8.com/S/NIO\">蔚来</a>汽车盘后跌超3%,<a href=\"https://laohu8.com/S/LI\">理想汽车</a>盘后跌超2%,<a href=\"https://laohu8.com/S/IQ\">爱奇艺</a>、京东、拼多多盘后跌超1%。</p><p><img src=\"https://static.tigerbbs.com/f6fe0bf04ef28ddd47ebbcc4b977e0f9\" tg-width=\"867\" tg-height=\"833\"></p>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>美众议院表决通过《外国公司问责法》,部分中概股盘后走低</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n美众议院表决通过《外国公司问责法》,部分中概股盘后走低\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2020-12-03 06:46</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<p>12月3日讯,美国众议院当地时间周三表决通过《外国公司问责法》,该法案要求,外国发行人连续三年不能满足美国公众公司会计监督委员会(PCAOB)对会计师事务所检查要求的,禁止其证券在美国交易。该议案已于今年5月在美国参议院获得通过。</p><p>对此,在北京时间周三举行的外交部例行发布会上,发言人华春莹表示,此举再次表明,美国对中国公司采取歧视性政策,对中国企业进行政治打压。在资本市场高度全球化的今天,有关各方开诚布公地就加强跨境监管合作、保护投资者合法权益等议题加强对话和合作才是解决问题的正道。我们坚决反对将证券监管政治化的做法。我们希望美方能够为外国企业在美国的投资经营提供公平、公正、非歧视的环境,而不是想方设法设置种种障碍。</p><p>部分中概股盘后走低,<a href=\"https://laohu8.com/S/XPEV\">小鹏汽车</a>盘后跌超4%,<a href=\"https://laohu8.com/S/NIO\">蔚来</a>汽车盘后跌超3%,<a href=\"https://laohu8.com/S/LI\">理想汽车</a>盘后跌超2%,<a href=\"https://laohu8.com/S/IQ\">爱奇艺</a>、京东、拼多多盘后跌超1%。</p><p><img src=\"https://static.tigerbbs.com/f6fe0bf04ef28ddd47ebbcc4b977e0f9\" tg-width=\"867\" tg-height=\"833\"></p>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/c7da52addfd52fb216bcf87283f43750","relate_stocks":{"IQ":"爱奇艺","JD":"京东","LI":"理想汽车","NIO":"蔚来","XPEV":"小鹏汽车","PDD":"拼多多"},"is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1193074976","content_text":"12月3日讯,美国众议院当地时间周三表决通过《外国公司问责法》,该法案要求,外国发行人连续三年不能满足美国公众公司会计监督委员会(PCAOB)对会计师事务所检查要求的,禁止其证券在美国交易。该议案已于今年5月在美国参议院获得通过。对此,在北京时间周三举行的外交部例行发布会上,发言人华春莹表示,此举再次表明,美国对中国公司采取歧视性政策,对中国企业进行政治打压。在资本市场高度全球化的今天,有关各方开诚布公地就加强跨境监管合作、保护投资者合法权益等议题加强对话和合作才是解决问题的正道。我们坚决反对将证券监管政治化的做法。我们希望美方能够为外国企业在美国的投资经营提供公平、公正、非歧视的环境,而不是想方设法设置种种障碍。部分中概股盘后走低,小鹏汽车盘后跌超4%,蔚来汽车盘后跌超3%,理想汽车盘后跌超2%,爱奇艺、京东、拼多多盘后跌超1%。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1689,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3542790721485409","authorId":"3542790721485409","name":"被套的感觉一级棒","avatar":"https://static.tigerbbs.com/7c1c15f31e638be76248790d47fa724f","crmLevel":8,"crmLevelSwitch":1,"idStr":"3542790721485409","authorIdStr":"3542790721485409"},"content":"不摸着石头过河怎么能屯那么多石头砸美帝国主义的脚板子呢?","text":"不摸着石头过河怎么能屯那么多石头砸美帝国主义的脚板子呢?","html":"不摸着石头过河怎么能屯那么多石头砸美帝国主义的脚板子呢?"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":155837207,"gmtCreate":1625399982009,"gmtModify":1625399982009,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"国家安全重大漏洞居然现在才开始整治","listText":"国家安全重大漏洞居然现在才开始整治","text":"国家安全重大漏洞居然现在才开始整治","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":9,"commentSize":4,"repostSize":0,"link":"https://laohu8.com/post/155837207","repostId":"1155046075","repostType":4,"isVote":1,"tweetType":1,"viewCount":1992,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3549871285956389","authorId":"3549871285956389","name":"让子弹再飞一会","avatar":"https://static.tigerbbs.com/cfd513996b2ed568c822a25e7a5f7284","crmLevel":7,"crmLevelSwitch":1,"idStr":"3549871285956389","authorIdStr":"3549871285956389"},"content":"赶在尚方宝剑来之前割一茬","text":"赶在尚方宝剑来之前割一茬","html":"赶在尚方宝剑来之前割一茬"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":302049653,"gmtCreate":1604502200272,"gmtModify":1703833491787,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"我的地盘我做主,我想咋整就咋整","listText":"我的地盘我做主,我想咋整就咋整","text":"我的地盘我做主,我想咋整就咋整","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":15,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/302049653","repostId":"1184620762","repostType":4,"repost":{"id":"1184620762","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1604501997,"share":"https://www.laohu8.com/m/news/1184620762?lang=&edition=full","pubTime":"2020-11-04 22:59","market":"hk","language":"zh","title":"证监会新闻发言人就蚂蚁集团暂缓上市答记者问","url":"https://stock-news.laohu8.com/highlight/detail?id=1184620762","media":"老虎资讯综合","summary":"证监会新闻发言人表示,避免$蚂蚁集团(06688)$在监管政策环境发生重大变化的情况下仓促上市,是对投资者和市场负责任的做法,体现了敬畏市场、敬畏法治的精神。相信这一决定将有利于资本市场长远发展,有利于增强境内外投资者的信任和信心。","content":"<p>证监会新闻发言人表示,避免<a href=\"https://laohu8.com/S/06688\">蚂蚁集团</a>在监管政策环境发生重大变化的情况下仓促上市,是对投资者和市场负责任的做法,体现了敬畏市场、敬畏法治的精神。相信这一决定将有利于资本市场长远发展,有利于增强境内外投资者的信任和信心。</p><p><img src=\"https://static.tigerbbs.com/28f754f9ca1562b669bb202f6d6bd9d6\" tg-width=\"919\" tg-height=\"783\"></p>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>证监会新闻发言人就蚂蚁集团暂缓上市答记者问</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n证监会新闻发言人就蚂蚁集团暂缓上市答记者问\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2020-11-04 22:59</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<p>证监会新闻发言人表示,避免<a href=\"https://laohu8.com/S/06688\">蚂蚁集团</a>在监管政策环境发生重大变化的情况下仓促上市,是对投资者和市场负责任的做法,体现了敬畏市场、敬畏法治的精神。相信这一决定将有利于资本市场长远发展,有利于增强境内外投资者的信任和信心。</p><p><img src=\"https://static.tigerbbs.com/28f754f9ca1562b669bb202f6d6bd9d6\" tg-width=\"919\" tg-height=\"783\"></p>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/192766ba1d3795349409e94bb715f389","relate_stocks":{"06688":"蚂蚁集团"},"is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1184620762","content_text":"证监会新闻发言人表示,避免蚂蚁集团在监管政策环境发生重大变化的情况下仓促上市,是对投资者和市场负责任的做法,体现了敬畏市场、敬畏法治的精神。相信这一决定将有利于资本市场长远发展,有利于增强境内外投资者的信任和信心。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1017,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":686722124,"gmtCreate":1658499928569,"gmtModify":1703748892487,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/TSLA\">$特斯拉(TSLA)$</a>特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!","listText":"<a href=\"https://laohu8.com/S/TSLA\">$特斯拉(TSLA)$</a>特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!","text":"$特斯拉(TSLA)$特斯拉今后的广告语:岁月无法改变林志颖的容颜,特斯拉可以!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":10,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/686722124","isVote":1,"tweetType":1,"viewCount":3847,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":838749021,"gmtCreate":1629432100263,"gmtModify":1629435151236,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸","listText":"业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸","text":"业绩增长最快的时候给了鬼子,如今人老珠黄回来养老,臭不要脸","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":3,"repostSize":0,"link":"https://laohu8.com/post/838749021","repostId":"1191695638","repostType":4,"isVote":1,"tweetType":1,"viewCount":1742,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3506462233722179","authorId":"3506462233722179","name":"请输入昵称已阅读","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":6,"crmLevelSwitch":0,"idStr":"3506462233722179","authorIdStr":"3506462233722179"},"content":"为什么不制裁这个,只制裁滴滴","text":"为什么不制裁这个,只制裁滴滴","html":"为什么不制裁这个,只制裁滴滴"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":344431896,"gmtCreate":1618423594415,"gmtModify":1618423594415,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/XPEV\">$小鹏汽车(XPEV)$</a>昨天着火的的是不是小鹏?","listText":"<a href=\"https://laohu8.com/S/XPEV\">$小鹏汽车(XPEV)$</a>昨天着火的的是不是小鹏?","text":"$小鹏汽车(XPEV)$昨天着火的的是不是小鹏?","images":[{"img":"https://static.tigerbbs.com/32c1c4787b1e143c24979d4e71161855","width":"1242","height":"2688"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":9,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/344431896","isVote":1,"tweetType":1,"viewCount":1943,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"CN","totalScore":0},{"id":947730603,"gmtCreate":1597413173402,"gmtModify":1704215798687,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"特斯拉给脸不要脸,当地工商部门应该有所作为,消费者pdd应该走司法途径要求三倍赔偿","listText":"特斯拉给脸不要脸,当地工商部门应该有所作为,消费者pdd应该走司法途径要求三倍赔偿","text":"特斯拉给脸不要脸,当地工商部门应该有所作为,消费者pdd应该走司法途径要求三倍赔偿","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":4,"repostSize":0,"link":"https://laohu8.com/post/947730603","repostId":"1143161569","repostType":4,"repost":{"id":"1143161569","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1597412764,"share":"https://www.laohu8.com/m/news/1143161569?lang=&edition=full","pubTime":"2020-08-14 21:46","market":"us","language":"zh","title":"拼多多回应“特斯拉事件”:消费者官网下单,没有转卖","url":"https://stock-news.laohu8.com/highlight/detail?id=1143161569","media":"老虎资讯综合","summary":"8月14日下午,特斯拉称,已拒绝向拼多多“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。对此,拼多多“秒拼”事业","content":"<p>8月14日下午,<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>称,已拒绝向<a href=\"https://laohu8.com/S/PDD\">拼多多</a>“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。</p><p>对此,拼多多“秒拼”事业群小二乐福表示,从这名消费者处已证实,该车辆系消费者本人与特斯拉签了订购协议,消费者本人自用且无任何转卖意愿和意图,其购车用车也并未有任何“恶意”。</p><p>乐福表示,对于特斯拉拒绝履行与消费者订立的合同,作为“补贴”方的一名行业小二,对此表示遗憾,支持消费者依法维权,并将积极落实车辆交付工作。</p><p>乐福表示,消费者理应被善待。招牌大了,不应豪横,店大了,不应欺客;手握先进技术,更应心态平和,积极善待消费者信任。</p><p><b>附:</b></p><p><b>拼多多小二乐福回应“5辆特斯拉”事件全文:</b></p><p><b>希望消费者能被善待</b></p><p>今日下午,特斯拉方面称,已拒绝向拼多多“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。</p><p>作为一名秒拼事业群小二,我从消费者处了解到情况如下:</p><p>1、该消费者主动告知了特斯拉,自己接受了拼多多的补贴。但确系其本人与特斯拉公司独立签署订购合同,消费者本人在特斯拉官网下单并且不会转卖,只会自用情况下被特斯拉明确拒绝交付的。</p><p>2,拼多多与宜买车,根据活动承诺,已经为该名消费者提供2万元车款补贴。</p><p>3,特斯拉拒绝履行与消费者订立的合同,作为补贴方对此表示遗憾,但我们支持消费者依法维权,并积极落实车辆交付工作。</p><p>我个人认为,招牌大了,不应豪横;店大了,不应欺客;手握先进技术,更应心态平和,积极善待消费者信任。</p><p>火箭发射上天了,依然能接地气并保持幽默,四海之大,有几人欤?</p>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>拼多多回应“特斯拉事件”:消费者官网下单,没有转卖</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n拼多多回应“特斯拉事件”:消费者官网下单,没有转卖\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2020-08-14 21:46</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<p>8月14日下午,<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>称,已拒绝向<a href=\"https://laohu8.com/S/PDD\">拼多多</a>“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。</p><p>对此,拼多多“秒拼”事业群小二乐福表示,从这名消费者处已证实,该车辆系消费者本人与特斯拉签了订购协议,消费者本人自用且无任何转卖意愿和意图,其购车用车也并未有任何“恶意”。</p><p>乐福表示,对于特斯拉拒绝履行与消费者订立的合同,作为“补贴”方的一名行业小二,对此表示遗憾,支持消费者依法维权,并将积极落实车辆交付工作。</p><p>乐福表示,消费者理应被善待。招牌大了,不应豪横,店大了,不应欺客;手握先进技术,更应心态平和,积极善待消费者信任。</p><p><b>附:</b></p><p><b>拼多多小二乐福回应“5辆特斯拉”事件全文:</b></p><p><b>希望消费者能被善待</b></p><p>今日下午,特斯拉方面称,已拒绝向拼多多“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。</p><p>作为一名秒拼事业群小二,我从消费者处了解到情况如下:</p><p>1、该消费者主动告知了特斯拉,自己接受了拼多多的补贴。但确系其本人与特斯拉公司独立签署订购合同,消费者本人在特斯拉官网下单并且不会转卖,只会自用情况下被特斯拉明确拒绝交付的。</p><p>2,拼多多与宜买车,根据活动承诺,已经为该名消费者提供2万元车款补贴。</p><p>3,特斯拉拒绝履行与消费者订立的合同,作为补贴方对此表示遗憾,但我们支持消费者依法维权,并积极落实车辆交付工作。</p><p>我个人认为,招牌大了,不应豪横;店大了,不应欺客;手握先进技术,更应心态平和,积极善待消费者信任。</p><p>火箭发射上天了,依然能接地气并保持幽默,四海之大,有几人欤?</p>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/a2db5797ca32628002f32e69d5dea58b","relate_stocks":{"PDD":"拼多多","TSLA":"特斯拉"},"is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1143161569","content_text":"8月14日下午,特斯拉称,已拒绝向拼多多“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。对此,拼多多“秒拼”事业群小二乐福表示,从这名消费者处已证实,该车辆系消费者本人与特斯拉签了订购协议,消费者本人自用且无任何转卖意愿和意图,其购车用车也并未有任何“恶意”。乐福表示,对于特斯拉拒绝履行与消费者订立的合同,作为“补贴”方的一名行业小二,对此表示遗憾,支持消费者依法维权,并将积极落实车辆交付工作。乐福表示,消费者理应被善待。招牌大了,不应豪横,店大了,不应欺客;手握先进技术,更应心态平和,积极善待消费者信任。附:拼多多小二乐福回应“5辆特斯拉”事件全文:希望消费者能被善待今日下午,特斯拉方面称,已拒绝向拼多多“限时秒杀”频道团购车主交付Model 3,并声称这批消费者涉嫌违反了特斯拉“禁止转卖”条款。特斯拉会依据合同违约条款单方面取消此订单。作为一名秒拼事业群小二,我从消费者处了解到情况如下:1、该消费者主动告知了特斯拉,自己接受了拼多多的补贴。但确系其本人与特斯拉公司独立签署订购合同,消费者本人在特斯拉官网下单并且不会转卖,只会自用情况下被特斯拉明确拒绝交付的。2,拼多多与宜买车,根据活动承诺,已经为该名消费者提供2万元车款补贴。3,特斯拉拒绝履行与消费者订立的合同,作为补贴方对此表示遗憾,但我们支持消费者依法维权,并积极落实车辆交付工作。我个人认为,招牌大了,不应豪横;店大了,不应欺客;手握先进技术,更应心态平和,积极善待消费者信任。火箭发射上天了,依然能接地气并保持幽默,四海之大,有几人欤?","news_type":1},"isVote":1,"tweetType":1,"viewCount":1800,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"3507337290644401","authorId":"3507337290644401","name":"phil888","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"idStr":"3507337290644401","authorIdStr":"3507337290644401"},"content":"了解一下特斯拉的销售条款再怼人吧。购车者自己认了是参与PDD活动购车,就算上法院打官司都未必能赢,特斯拉反过来可以告PDD和购车者合谋扰乱市场秩序,让你吃不了 兜着走。","text":"了解一下特斯拉的销售条款再怼人吧。购车者自己认了是参与PDD活动购车,就算上法院打官司都未必能赢,特斯拉反过来可以告PDD和购车者合谋扰乱市场秩序,让你吃不了 兜着走。","html":"了解一下特斯拉的销售条款再怼人吧。购车者自己认了是参与PDD活动购车,就算上法院打官司都未必能赢,特斯拉反过来可以告PDD和购车者合谋扰乱市场秩序,让你吃不了 兜着走。"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":601726076,"gmtCreate":1638573501491,"gmtModify":1638573501491,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>没有消炎的战场,这一局完败!血流成河惨不忍睹……","listText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>没有消炎的战场,这一局完败!血流成河惨不忍睹……","text":"$滴滴(DIDI)$没有消炎的战场,这一局完败!血流成河惨不忍睹……","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":6,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/601726076","isVote":1,"tweetType":1,"viewCount":4709,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":378759293,"gmtCreate":1619063750912,"gmtModify":1619063750912,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"这个数据提交的这么慢看来大有文章,很可能过度采集行程数据道路视频坐标无线信号......国家安全漏洞太大,所有中国道路行车数据应该全部存储在中国,一旦发生泄漏呵呵……","listText":"这个数据提交的这么慢看来大有文章,很可能过度采集行程数据道路视频坐标无线信号......国家安全漏洞太大,所有中国道路行车数据应该全部存储在中国,一旦发生泄漏呵呵……","text":"这个数据提交的这么慢看来大有文章,很可能过度采集行程数据道路视频坐标无线信号......国家安全漏洞太大,所有中国道路行车数据应该全部存储在中国,一旦发生泄漏呵呵……","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":3,"repostSize":0,"link":"https://laohu8.com/post/378759293","repostId":"1125143571","repostType":4,"isVote":1,"tweetType":1,"viewCount":2285,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":681196863,"gmtCreate":1656720658256,"gmtModify":1704865688532,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!","listText":"中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!","text":"中国很多最优质的资产投资人却是歪国人,国有资本的投资眼光就是瞎子!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/681196863","repostId":"1197948330","repostType":2,"isVote":1,"tweetType":1,"viewCount":1220,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":331167056,"gmtCreate":1609468423775,"gmtModify":1703739579620,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"内斗内行","listText":"内斗内行","text":"内斗内行","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/331167056","repostId":"1176920029","repostType":4,"repost":{"id":"1176920029","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1609467812,"share":"https://www.laohu8.com/m/news/1176920029?lang=&edition=full","pubTime":"2021-01-01 10:23","market":"hk","language":"zh","title":"华为平台全面下架腾讯游戏!","url":"https://stock-news.laohu8.com/highlight/detail?id=1176920029","media":"老虎资讯综合","summary":"1日讯,华为游戏中心社区发布公告:因腾讯游戏于2020年12月31日17点57分单方面就双方合作做出重大变更,导致双方的继续合作产生重大障碍,经过我司法务谨慎评估,我们不得不依照腾讯单方面要求暂停相关","content":"<p>1日讯,华为游戏中心社区发布公告:因腾讯游戏于2020年12月31日17点57分单方面就双方合作做出重大变更,导致双方的继续合作产生重大障碍,经过我司法务谨慎评估,我们不得不依照腾讯单方面要求暂停相关合作,将腾讯游戏从华为平台下架。</p><p><img src=\"https://static.tigerbbs.com/11ce88109a0a947e895dab4a91f4905d\" tg-width=\"474\" tg-height=\"576\"></p><p>腾讯游戏方面回应称,因华为手机游戏平台与我们的《手机游戏推广项目协议》未能如期续约,导致今天凌晨腾讯游戏的相关产品被突然下架。目前我们正积极与华为手机游戏平台沟通协商,争取尽快恢复。给各位用户带来的不便,我们深表歉意。</p><p>据第一财经报道,一知情人士表示,<b>事件的导火索在于分成比例没有谈拢</b>。</p><p>过去,游戏行业一直处于粗放发展的时期,也是渠道为王的时期。手机官方应用商店组成的硬核联盟,和游戏发行商分成比例一直是五五。而在国外,苹果App Store和安卓Google Play和发行商的分成比例是三七。</p><p>但随着市场环境的变化,用户触达游戏的渠道呈多元化趋势。传统货架式游戏分发渠道已经逐渐式微,年轻一代玩家逐渐通过游戏社区论坛、公众号、图文内容平台或周边口碑转播等接触和认知一款游戏,货架式游戏应用中心不再是玩家下载游戏的唯一通道,渠道也在变革的过程中。</p><p>从2019年年中开始,腾讯对渠道商提出了新的分成比例,旗下新游戏的流水渠道和开发以三七比例来分成,即应用市场拿三成,开发商等拿七成。</p><p> 一不愿具名的手机厂商内部人士表示,腾讯方面就分成的问题这两年一直在与厂商进行谈判,但目前中国渠道市场较海外更加复杂,不能简单的说成是分成比例问题,也不能照搬海外分成模式。</p>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>华为平台全面下架腾讯游戏!</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n华为平台全面下架腾讯游戏!\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2021-01-01 10:23</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<p>1日讯,华为游戏中心社区发布公告:因腾讯游戏于2020年12月31日17点57分单方面就双方合作做出重大变更,导致双方的继续合作产生重大障碍,经过我司法务谨慎评估,我们不得不依照腾讯单方面要求暂停相关合作,将腾讯游戏从华为平台下架。</p><p><img src=\"https://static.tigerbbs.com/11ce88109a0a947e895dab4a91f4905d\" tg-width=\"474\" tg-height=\"576\"></p><p>腾讯游戏方面回应称,因华为手机游戏平台与我们的《手机游戏推广项目协议》未能如期续约,导致今天凌晨腾讯游戏的相关产品被突然下架。目前我们正积极与华为手机游戏平台沟通协商,争取尽快恢复。给各位用户带来的不便,我们深表歉意。</p><p>据第一财经报道,一知情人士表示,<b>事件的导火索在于分成比例没有谈拢</b>。</p><p>过去,游戏行业一直处于粗放发展的时期,也是渠道为王的时期。手机官方应用商店组成的硬核联盟,和游戏发行商分成比例一直是五五。而在国外,苹果App Store和安卓Google Play和发行商的分成比例是三七。</p><p>但随着市场环境的变化,用户触达游戏的渠道呈多元化趋势。传统货架式游戏分发渠道已经逐渐式微,年轻一代玩家逐渐通过游戏社区论坛、公众号、图文内容平台或周边口碑转播等接触和认知一款游戏,货架式游戏应用中心不再是玩家下载游戏的唯一通道,渠道也在变革的过程中。</p><p>从2019年年中开始,腾讯对渠道商提出了新的分成比例,旗下新游戏的流水渠道和开发以三七比例来分成,即应用市场拿三成,开发商等拿七成。</p><p> 一不愿具名的手机厂商内部人士表示,腾讯方面就分成的问题这两年一直在与厂商进行谈判,但目前中国渠道市场较海外更加复杂,不能简单的说成是分成比例问题,也不能照搬海外分成模式。</p>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/ce88d7c500914d5edde5f4ccbc6959f5","relate_stocks":{"00700":"腾讯控股"},"is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1176920029","content_text":"1日讯,华为游戏中心社区发布公告:因腾讯游戏于2020年12月31日17点57分单方面就双方合作做出重大变更,导致双方的继续合作产生重大障碍,经过我司法务谨慎评估,我们不得不依照腾讯单方面要求暂停相关合作,将腾讯游戏从华为平台下架。腾讯游戏方面回应称,因华为手机游戏平台与我们的《手机游戏推广项目协议》未能如期续约,导致今天凌晨腾讯游戏的相关产品被突然下架。目前我们正积极与华为手机游戏平台沟通协商,争取尽快恢复。给各位用户带来的不便,我们深表歉意。据第一财经报道,一知情人士表示,事件的导火索在于分成比例没有谈拢。过去,游戏行业一直处于粗放发展的时期,也是渠道为王的时期。手机官方应用商店组成的硬核联盟,和游戏发行商分成比例一直是五五。而在国外,苹果App Store和安卓Google Play和发行商的分成比例是三七。但随着市场环境的变化,用户触达游戏的渠道呈多元化趋势。传统货架式游戏分发渠道已经逐渐式微,年轻一代玩家逐渐通过游戏社区论坛、公众号、图文内容平台或周边口碑转播等接触和认知一款游戏,货架式游戏应用中心不再是玩家下载游戏的唯一通道,渠道也在变革的过程中。从2019年年中开始,腾讯对渠道商提出了新的分成比例,旗下新游戏的流水渠道和开发以三七比例来分成,即应用市场拿三成,开发商等拿七成。 一不愿具名的手机厂商内部人士表示,腾讯方面就分成的问题这两年一直在与厂商进行谈判,但目前中国渠道市场较海外更加复杂,不能简单的说成是分成比例问题,也不能照搬海外分成模式。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1188,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":339872095,"gmtCreate":1608822973117,"gmtModify":1703737019572,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"1950年的味道.......","listText":"1950年的味道.......","text":"1950年的味道.......","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/339872095","repostId":"1173915445","repostType":2,"repost":{"id":"1173915445","kind":"news","pubTimestamp":1608776398,"share":"https://www.laohu8.com/m/news/1173915445?lang=&edition=full","pubTime":"2020-12-24 10:19","market":"us","language":"zh","title":"蚂蚁二次约谈消息稿释放三个强烈信号","url":"https://stock-news.laohu8.com/highlight/detail?id=1173915445","media":" 澎湃新闻","summary":"新华社“字少事大”体短讯释放三重信号:明确监管者的定位;流程的调整更尊重市场感受;监管内容更公开透明。24日早晨,新华社发布了这样一条短消息,依然是“字少事大”体:【金融管理部门将于近日约谈蚂蚁集团】","content":"<div>\n<p>新华社“字少事大”体短讯释放三重信号:明确监管者的定位;流程的调整更尊重市场感受;监管内容更公开透明。24日早晨,新华社发布了这样一条短消息,依然是“字少事大”体:【金融管理部门将于近日约谈蚂蚁集团】中国人民银行、中国银保监会、中国证监会、国家外汇管理局将于近日约谈蚂蚁集团,督促指导蚂蚁集团按照市场化、法治化原则,落实金融监管、公平竞争和保护消费者合法权益等要求,规范金融业务经营与发展。标题16个...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3614682\">Web Link</a>\n\n</div>\n","source":"pengpai_highlight","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>蚂蚁二次约谈消息稿释放三个强烈信号</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n蚂蚁二次约谈消息稿释放三个强烈信号\n</h2>\n\n<h4 class=\"meta\">\n\n\n2020-12-24 10:19 北京时间 <a href=https://wallstreetcn.com/articles/3614682><strong> 澎湃新闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>新华社“字少事大”体短讯释放三重信号:明确监管者的定位;流程的调整更尊重市场感受;监管内容更公开透明。24日早晨,新华社发布了这样一条短消息,依然是“字少事大”体:【金融管理部门将于近日约谈蚂蚁集团】中国人民银行、中国银保监会、中国证监会、国家外汇管理局将于近日约谈蚂蚁集团,督促指导蚂蚁集团按照市场化、法治化原则,落实金融监管、公平竞争和保护消费者合法权益等要求,规范金融业务经营与发展。标题16个...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3614682\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/1684aaaa06891b8d2dd04a9941acb502","relate_stocks":{"06688":"蚂蚁集团","BABA":"阿里巴巴","09988":"阿里巴巴-W"},"source_url":"https://wallstreetcn.com/articles/3614682","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1173915445","content_text":"新华社“字少事大”体短讯释放三重信号:明确监管者的定位;流程的调整更尊重市场感受;监管内容更公开透明。24日早晨,新华社发布了这样一条短消息,依然是“字少事大”体:【金融管理部门将于近日约谈蚂蚁集团】中国人民银行、中国银保监会、中国证监会、国家外汇管理局将于近日约谈蚂蚁集团,督促指导蚂蚁集团按照市场化、法治化原则,落实金融监管、公平竞争和保护消费者合法权益等要求,规范金融业务经营与发展。标题16个字,正文部分连标点符号在内95个字!信息量却相当充沛。对比图先来一张:52天前,蚂蚁集团首次被约谈的消息发布,标题15个字、正文74个字,同样是极简的篇幅、字字千钧。两相比照,会发现这可远远不止是标准版与Pro版的区别,看似熟悉的配方、熟悉的味道,实则在变化中释放出三个强烈的信号:第一,明确监管者的定位。从首次的“四部门”,到这次的“金融管理部门”,虽然正文出现的四个部门没有变,但是惜字如金、层层把关的新华社通稿,标题绝不是随随便便变化的。如果说首次约谈还只是声明了四部门的协同,这次则是精准清晰地定位在了“金融管理”这一职能,明确了约谈者的“主体责任”和约谈的议题,呼应了刚刚闭幕的中央经济工作会议提出的具体要求。第二,流程的调整更尊重市场感受。首次约谈,很显然,是谈完了才对外发布,消息一出,可谓石破天惊,一时间也引发了广泛的关注。这次则是有条不紊、非常从容,让各方面能更容易明白这只不过是政府部门履行职责,不需要大惊小怪,更不需要杞人忧天地胡乱关联。这也正是中央经济工作会议消息稿里明确指出的:“要加强规制,提升监管能力”,不仅要监管,还要提升“管”的技术和艺术,放大“管”的效果、减小不必要的震动。第三,监管内容更公开透明。首次约谈,只说“约”了蚂蚁的相关负责人,没提“谈”的是什么。这次约谈,则指向了更具体的执行层面,至少包括了三层意思:一是明确了希望蚂蚁集团在后续发展中能够遵循的原则——“市场化、法治化”,前者是说明将继续发挥好市场在资源配置中的作用、鼓励平台经济创新发展,后者则是强调要人人平等、互联网经济巨头也不应该得到特殊对待。二是明确了金融监管的目的是要能实现金融“公平竞争”、“保护消费者合法权益等”。互联网平台经济近年来飞速发展,不知不觉中已经改变了人们的消费习惯(甚至是思维习惯),也使得市场的定价权在无形中越来越向少数巨头企业集中,已经出现无序扩张、侵蚀金融稳定、影响消费者权益保护的风险苗头在上升。这时候,如果政府不出手,指望以“逐利”为本质属性的资本会突然开始自省甚至改革?答案不言而喻。“无形的手”打底,“有形的手”调节,这才能保证发展的红利惠及更多人。三是明确了监管的意义在于“规范金融业务经营与发展”,“管”是肯定要“管”的,但管是为了让市场的竞争比赛更加好看,让场上的选手、场下的观众都能在统一标准的规则下一同欣赏金融创新的协奏曲,在不断完善的治理中促进健康、可持续的发展。毕竟,大家好,才是真的好。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1129,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":233944945570000,"gmtCreate":1698124219971,"gmtModify":1698124221672,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"打击电诈人人有责","listText":"打击电诈人人有责","text":"打击电诈人人有责","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":4,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/233944945570000","repostId":"1156553549","repostType":2,"isVote":1,"tweetType":1,"viewCount":894,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":616846048,"gmtCreate":1651711696331,"gmtModify":1651711696331,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"学习俄罗斯","listText":"学习俄罗斯","text":"学习俄罗斯","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/616846048","repostId":"2233832396","repostType":2,"isVote":1,"tweetType":1,"viewCount":2169,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":170245996,"gmtCreate":1626439262215,"gmtModify":1626439262215,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来","listText":"<a href=\"https://laohu8.com/S/DIDI\">$滴滴(DIDI)$</a>七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来","text":"$滴滴(DIDI)$七个最重要的部门联合进驻,可以想象滴滴做了什么天大的坏事,今晚10以上抄底的下周哭都哭不出来","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/170245996","isVote":1,"tweetType":1,"viewCount":1684,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":682145865,"gmtCreate":1658860713561,"gmtModify":1658860713561,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/EM\">$怪兽充电(EM)$</a>吞金兽","listText":"<a href=\"https://laohu8.com/S/EM\">$怪兽充电(EM)$</a>吞金兽","text":"$怪兽充电(EM)$吞金兽","images":[{"img":"https://static.tigerbbs.com/95f33f29374a9273084b66d6f3500c8c","width":"1242","height":"2688"},{"img":"https://static.tigerbbs.com/81a5d82c2340f05ff8a4fb83a4e565d0","width":"1242","height":"2688"},{"img":"https://static.tigerbbs.com/01d2a821c3fb2795919827da6469681b","width":"1242","height":"2688"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/682145865","isVote":1,"tweetType":1,"viewCount":1944,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":3,"langContent":"CN","totalScore":0},{"id":696861986,"gmtCreate":1640664173786,"gmtModify":1640664173786,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"阿里只要不吃里扒外还是好公司","listText":"阿里只要不吃里扒外还是好公司","text":"阿里只要不吃里扒外还是好公司","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/696861986","repostId":"1139105558","repostType":2,"repost":{"id":"1139105558","kind":"news","pubTimestamp":1640662718,"share":"https://www.laohu8.com/m/news/1139105558?lang=&edition=full","pubTime":"2021-12-28 11:38","market":"hk","language":"zh","title":"达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制","url":"https://stock-news.laohu8.com/highlight/detail?id=1139105558","media":"钱江晚报","summary":"12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,","content":"<p>12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。<img src=\"https://static.tigerbbs.com/a8e5ac3a4e95033475f161b74cdaed86\" tg-width=\"641\" tg-height=\"1304\" referrerpolicy=\"no-referrer\">通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,覆盖159个领域,挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势,覆盖人工智能、芯片、计算和通信等领域。</p>\n<p>达摩院首先关注到可能激发全局变革、令人心潮澎湃的科学基础范式变化。数百年来科学研究主要使用实验科学和理论科学两大基础范式,如今可能迎来全新范式:AI for Science。通过将人工智能引入更底层的科研领域,处理多维、多模态的海量数据,科学家可能突破长久以来的研究瓶颈,抵达更远的无人区。</p>\n<p>人工智能本身也将迎来模式变革。超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,它解决了传统深度学习的应用碎片化难题,引发科研机构和企业重点投入。达摩院认为,因性能与能耗提升不成比例,大模型参数竞赛将进入冷静期,大小模型云边端协同进化会是未来趋势。</p>\n<p>变革还将发生在芯片领域。在电子芯片的制程竞赛接近终点的情况下,硅光芯片异军突起,融合光子和电子优势,突破摩尔定律限制,满足人工智能、云计算带来的爆发性算力需求。预计未来三年,硅光芯片将承载大型数据中心的高速信息传输。</p>\n<p>人工智能的应用进一步延伸,有望对国计民生产生影响。风电、光伏等绿色能源近年来快速发展,但由于波动性、随机性、反调峰等特征,带来了并网难、消纳率低等问题。达摩院认为,AI可通过精准的计算和协调能力,成为电网的智能“调度员”,帮助大规模消纳绿色能源。传统医疗过于依赖医生经验,效果参差不齐。人工智能与精准医疗的深度融合,将打造出临床医学的高精度导航系统,实现重大疾病的可量化、可计算、可预测、可防治。</p>\n<p>计算和通信领域的变革不断加快,数据安全和隐私保护得到前所未有的关注。全域隐私计算将成为安全领域的基石性技术。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望实现全域数据安全保护,为数字时代保驾护航。</p>\n<p>网络的边界将被不断拓展。星地计算将构建卫星及地面一体化的通信与计算,让网络覆盖海洋、沙漠、深空等无人区。达摩院预计,未来三年内低轨卫星数量将快速增长,与高轨卫星组成卫星互联网。网络技术的发展还将推动形成云网端融合的新计算体系,让终端专注极致体验,不断催生云上新物种,带领我们进入以沉浸式体验为核心的新一代互联网。</p>\n<p><b>趋势一 AI for Science</b></p>\n<p>人工智能成为科学家的新生产工具,催生科研新范式</p>\n<p>【趋势概要】实验科学和理论科学是数百年来科学界的两大基础范式,而人工智能正在催生新的科研范式。机器学习能够处理多维、多模态的海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。人工智能不仅将加速科研流程,还将帮助发现新的科学规律。预计未来三年,人工智能将在应用科学中得到普遍应用,在部分基础科学中开始成为科学家的生产工具。</p>\n<p><b>趋势二 大小模型协同进化</b></p>\n<p>大模型参数竞赛进入冷静期,大小模型将在云边端协同进化</p>\n<p>【趋势概要】超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,解决了传统深度学习的应用碎片化难题,但性能与能耗提升不成比例的效率问题限制了参数规模继续扩张。人工智能研究将从大模型参数竞赛走向大小模型的协同进化,大模型向边、端的小模型输出模型能力,小模型负责实际的推理与执行,同时小模型再向大模型反馈算法与执行成效,让大模型的能力持续强化,形成有机循环的智能体系。</p>\n<p><b>趋势三 硅光芯片</b></p>\n<p>光电融合兼具光子和电子优势,突破摩尔定律限制</p>\n<p>【趋势概要】电子芯片的发展逼近摩尔定律极限,难以满足高性能计算不断增长的数据吞吐需求。硅光芯片用光子代替电子进行信息传输,可承载更多信息和传输更远距离,具备高计算密度与低能耗的优势。随着云计算与人工智能的大爆发,硅光芯片迎来技术快速迭代与产业链高速发展。预计未来三年,硅光芯片将承载绝大部分大型数据中心内的高速信息传输。</p>\n<p><b>趋势四 绿色能源AI</b></p>\n<p>人工智能助力大规模绿色能源消纳,实现多能互补的电力体系</p>\n<p>【趋势概要】风电、光伏等绿色能源近年来快速发展,也带来了并网难、消纳率低等问题,甚至出现了“弃风”、“弃光”等现象。核心原因在于绿色能源存在波动性、随机性、反调峰等特征,大规模并网可能影响电网的安全稳定运行。人工智能技术的应用,将有效提升电网等能源系统消纳多样化电源和协调多能源的能力,成为提升能源利用率和稳定性的技术支撑,推动碳中和进程。预计未来三年,人工智能技术将帮助电力系统实现大规模绿色能源消纳,实现电力系统的安全、高效、稳定运行。</p>\n<p><b>趋势五 柔性感知机器人</b></p>\n<p>机器人将兼具柔性和类人感知,可自适应完成多种任务</p>\n<p>【趋势概要】传统机器人依赖预编程,局限于大型生产线等结构化场景。近年来,柔性机器人结合柔性电子、力感知与控制、人工智能技术,获得了力觉、视觉、声音等感知能力,应对多任务的通用性与应对环境变化的自适应性大幅提升。机器人将从大规模、标准化的产线走向小规模、非标准化的场景。预计未来五年,柔性感知机器人将逐步替代传统工业机器人,成为产线上的主力设备,并在服务机器人领域开始规模化应用。</p>\n<p><b>趋势六 高精度医疗导航</b></p>\n<p>人工智能与精准医疗深度融合,助力诊疗精度与效率提升</p>\n<p>【趋势概要】传统医疗依赖医生经验,犹如人工寻路,效果参差不齐。人工智能与精准医疗深度融合,专家经验和新的辅助诊断技术有机结合,将成为临床医学的高精度导航系统,为医生提供自动指引,帮助医疗决策更快更准,实现重大疾病的可量化、可计算、可预测、可防治。预计未来三年,以人为中心的精准医疗将成为主要方向,人工智能将全面渗透在疾病预防和诊疗的各个环节,成为疾病预防和诊疗的高精度导航协同。</p>\n<p><b>趋势七 全域隐私计算</b></p>\n<p>破解数据保护与流通两难,隐私计算走向全域数据保护</p>\n<p>【趋势概要】数据安全保护与数据流通是数字时代的两难问题,破解之道是隐私计算。过去受制于性能瓶颈、技术信任不足、标准不统一等问题,隐私计算尚只能在少量数据的场景下应用。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望跨越到海量数据保护,数据源将扩展到全域,激发数字时代的新生产力。预计未来三年,全域隐私计算技术将在性能和可解释性上有新的突破,或将出现数据信托机构提供基于隐私计算的数据共享服务。</p>\n<p><b>趋势八 星地计算</b></p>\n<p>卫星及地面一体化的通信与计算,促进空天地海全面数字化</p>\n<p>【趋势概要】基于地面网络和计算的数字化服务局限在人口密集区域,深空、海洋、沙漠等无人区尚是服务的空白地带。高低轨卫星通信和地面移动通信将无缝连接,形成空天地海一体化立体网络。由于算随网动,星地计算将集成卫星系统、空中网络、地面通信和云计算,成为删除的内容:集成一种新兴的计算架构,扩展数字化服务的空间。预计未来三年,低轨卫星数量会迎来爆发式增长,卫星及其地面系统将成为新型计算节点。</p>\n<p><b>趋势九 云网端融合</b></p>\n<p>云网端融合形成新计算体系,催生云上新物种</p>\n<p>【趋势概要】新型网络技术发展将推动云计算走向云网端融合的新计算体系,并实现云网端的专业分工:云将作为脑,负责集中计算与全局数据处理;网络作为连接,将多种网络形态通过云融合,形成低延时、广覆盖的一张网;端作为交互界面,呈现多元形态,可提供轻薄、长效、沉浸式的极致体验。云网端融合将促进高精度工业仿真、实时工业质检、虚实融合空间等新型应用诞生。预计未来两年,将有大量新型应用在云网端融合的新计算体系中运行。</p>\n<p><b>趋势十 XR互联网</b></p>\n<p>XR眼镜会成为重要交互界面,带动下一代互联网发展</p>\n<p>【趋势概要】随着端云协同计算、网络通信、数字孪生等技术发展,以沉浸式体验为核心的XR(未来虚实融合)互联网将迎爆发期。眼镜有望成为新的人机交互界面,推动形成有别于平面互联网的XR互联网,催生从元器件、设备、操作系统到应用的新产业生态。XR互联网将重塑数字应用形态,变革娱乐、社交、工作、购物、教育、医疗等场景交互方式。预计未来三年,外形与重量接近普通眼镜的新一代XR眼镜将产生,成为下一代互联网的关键入口。</p>","source":"lsy1592808427283","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n达摩院2022十大科技趋势发布:硅光芯片将突破摩尔定律限制\n</h2>\n\n<h4 class=\"meta\">\n\n\n2021-12-28 11:38 北京时间 <a href=https://baijiahao.baidu.com/s?id=1720356889968545167&wfr=spider&for=pc><strong>钱江晚报</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,覆盖159个领域,挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势,覆盖人工智能、芯片、计算和通信等领域。\n达摩院首先关注到可能激发全局变革、令人...</p>\n\n<a href=\"https://baijiahao.baidu.com/s?id=1720356889968545167&wfr=spider&for=pc\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/3a7574e1aacf9a9c99f899d5e60407e9","relate_stocks":{"BABA":"阿里巴巴"},"source_url":"https://baijiahao.baidu.com/s?id=1720356889968545167&wfr=spider&for=pc","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1139105558","content_text":"12月28日,阿里巴巴达摩院发布2022十大科技趋势,这是达摩院连续第四年发布前沿科技趋势预测。通过“定量发散”与“定性收敛”结合的研究方法,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,覆盖159个领域,挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势,覆盖人工智能、芯片、计算和通信等领域。\n达摩院首先关注到可能激发全局变革、令人心潮澎湃的科学基础范式变化。数百年来科学研究主要使用实验科学和理论科学两大基础范式,如今可能迎来全新范式:AI for Science。通过将人工智能引入更底层的科研领域,处理多维、多模态的海量数据,科学家可能突破长久以来的研究瓶颈,抵达更远的无人区。\n人工智能本身也将迎来模式变革。超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,它解决了传统深度学习的应用碎片化难题,引发科研机构和企业重点投入。达摩院认为,因性能与能耗提升不成比例,大模型参数竞赛将进入冷静期,大小模型云边端协同进化会是未来趋势。\n变革还将发生在芯片领域。在电子芯片的制程竞赛接近终点的情况下,硅光芯片异军突起,融合光子和电子优势,突破摩尔定律限制,满足人工智能、云计算带来的爆发性算力需求。预计未来三年,硅光芯片将承载大型数据中心的高速信息传输。\n人工智能的应用进一步延伸,有望对国计民生产生影响。风电、光伏等绿色能源近年来快速发展,但由于波动性、随机性、反调峰等特征,带来了并网难、消纳率低等问题。达摩院认为,AI可通过精准的计算和协调能力,成为电网的智能“调度员”,帮助大规模消纳绿色能源。传统医疗过于依赖医生经验,效果参差不齐。人工智能与精准医疗的深度融合,将打造出临床医学的高精度导航系统,实现重大疾病的可量化、可计算、可预测、可防治。\n计算和通信领域的变革不断加快,数据安全和隐私保护得到前所未有的关注。全域隐私计算将成为安全领域的基石性技术。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望实现全域数据安全保护,为数字时代保驾护航。\n网络的边界将被不断拓展。星地计算将构建卫星及地面一体化的通信与计算,让网络覆盖海洋、沙漠、深空等无人区。达摩院预计,未来三年内低轨卫星数量将快速增长,与高轨卫星组成卫星互联网。网络技术的发展还将推动形成云网端融合的新计算体系,让终端专注极致体验,不断催生云上新物种,带领我们进入以沉浸式体验为核心的新一代互联网。\n趋势一 AI for Science\n人工智能成为科学家的新生产工具,催生科研新范式\n【趋势概要】实验科学和理论科学是数百年来科学界的两大基础范式,而人工智能正在催生新的科研范式。机器学习能够处理多维、多模态的海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。人工智能不仅将加速科研流程,还将帮助发现新的科学规律。预计未来三年,人工智能将在应用科学中得到普遍应用,在部分基础科学中开始成为科学家的生产工具。\n趋势二 大小模型协同进化\n大模型参数竞赛进入冷静期,大小模型将在云边端协同进化\n【趋势概要】超大规模预训练模型是从弱人工智能向通用人工智能的突破性探索,解决了传统深度学习的应用碎片化难题,但性能与能耗提升不成比例的效率问题限制了参数规模继续扩张。人工智能研究将从大模型参数竞赛走向大小模型的协同进化,大模型向边、端的小模型输出模型能力,小模型负责实际的推理与执行,同时小模型再向大模型反馈算法与执行成效,让大模型的能力持续强化,形成有机循环的智能体系。\n趋势三 硅光芯片\n光电融合兼具光子和电子优势,突破摩尔定律限制\n【趋势概要】电子芯片的发展逼近摩尔定律极限,难以满足高性能计算不断增长的数据吞吐需求。硅光芯片用光子代替电子进行信息传输,可承载更多信息和传输更远距离,具备高计算密度与低能耗的优势。随着云计算与人工智能的大爆发,硅光芯片迎来技术快速迭代与产业链高速发展。预计未来三年,硅光芯片将承载绝大部分大型数据中心内的高速信息传输。\n趋势四 绿色能源AI\n人工智能助力大规模绿色能源消纳,实现多能互补的电力体系\n【趋势概要】风电、光伏等绿色能源近年来快速发展,也带来了并网难、消纳率低等问题,甚至出现了“弃风”、“弃光”等现象。核心原因在于绿色能源存在波动性、随机性、反调峰等特征,大规模并网可能影响电网的安全稳定运行。人工智能技术的应用,将有效提升电网等能源系统消纳多样化电源和协调多能源的能力,成为提升能源利用率和稳定性的技术支撑,推动碳中和进程。预计未来三年,人工智能技术将帮助电力系统实现大规模绿色能源消纳,实现电力系统的安全、高效、稳定运行。\n趋势五 柔性感知机器人\n机器人将兼具柔性和类人感知,可自适应完成多种任务\n【趋势概要】传统机器人依赖预编程,局限于大型生产线等结构化场景。近年来,柔性机器人结合柔性电子、力感知与控制、人工智能技术,获得了力觉、视觉、声音等感知能力,应对多任务的通用性与应对环境变化的自适应性大幅提升。机器人将从大规模、标准化的产线走向小规模、非标准化的场景。预计未来五年,柔性感知机器人将逐步替代传统工业机器人,成为产线上的主力设备,并在服务机器人领域开始规模化应用。\n趋势六 高精度医疗导航\n人工智能与精准医疗深度融合,助力诊疗精度与效率提升\n【趋势概要】传统医疗依赖医生经验,犹如人工寻路,效果参差不齐。人工智能与精准医疗深度融合,专家经验和新的辅助诊断技术有机结合,将成为临床医学的高精度导航系统,为医生提供自动指引,帮助医疗决策更快更准,实现重大疾病的可量化、可计算、可预测、可防治。预计未来三年,以人为中心的精准医疗将成为主要方向,人工智能将全面渗透在疾病预防和诊疗的各个环节,成为疾病预防和诊疗的高精度导航协同。\n趋势七 全域隐私计算\n破解数据保护与流通两难,隐私计算走向全域数据保护\n【趋势概要】数据安全保护与数据流通是数字时代的两难问题,破解之道是隐私计算。过去受制于性能瓶颈、技术信任不足、标准不统一等问题,隐私计算尚只能在少量数据的场景下应用。随着专用芯片、加密算法、白盒化、数据信托等技术融合发展,隐私计算有望跨越到海量数据保护,数据源将扩展到全域,激发数字时代的新生产力。预计未来三年,全域隐私计算技术将在性能和可解释性上有新的突破,或将出现数据信托机构提供基于隐私计算的数据共享服务。\n趋势八 星地计算\n卫星及地面一体化的通信与计算,促进空天地海全面数字化\n【趋势概要】基于地面网络和计算的数字化服务局限在人口密集区域,深空、海洋、沙漠等无人区尚是服务的空白地带。高低轨卫星通信和地面移动通信将无缝连接,形成空天地海一体化立体网络。由于算随网动,星地计算将集成卫星系统、空中网络、地面通信和云计算,成为删除的内容:集成一种新兴的计算架构,扩展数字化服务的空间。预计未来三年,低轨卫星数量会迎来爆发式增长,卫星及其地面系统将成为新型计算节点。\n趋势九 云网端融合\n云网端融合形成新计算体系,催生云上新物种\n【趋势概要】新型网络技术发展将推动云计算走向云网端融合的新计算体系,并实现云网端的专业分工:云将作为脑,负责集中计算与全局数据处理;网络作为连接,将多种网络形态通过云融合,形成低延时、广覆盖的一张网;端作为交互界面,呈现多元形态,可提供轻薄、长效、沉浸式的极致体验。云网端融合将促进高精度工业仿真、实时工业质检、虚实融合空间等新型应用诞生。预计未来两年,将有大量新型应用在云网端融合的新计算体系中运行。\n趋势十 XR互联网\nXR眼镜会成为重要交互界面,带动下一代互联网发展\n【趋势概要】随着端云协同计算、网络通信、数字孪生等技术发展,以沉浸式体验为核心的XR(未来虚实融合)互联网将迎爆发期。眼镜有望成为新的人机交互界面,推动形成有别于平面互联网的XR互联网,催生从元器件、设备、操作系统到应用的新产业生态。XR互联网将重塑数字应用形态,变革娱乐、社交、工作、购物、教育、医疗等场景交互方式。预计未来三年,外形与重量接近普通眼镜的新一代XR眼镜将产生,成为下一代互联网的关键入口。","news_type":1},"isVote":1,"tweetType":1,"viewCount":2352,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":879595736,"gmtCreate":1636733711039,"gmtModify":1636733711039,"author":{"id":"3434884009534721","authorId":"3434884009534721","name":"找乐自由之路","avatar":"https://static.tigerbbs.com/97e2ad9fb2ca478ce80df0041aa39cc9","crmLevel":5,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3434884009534721","authorIdStr":"3434884009534721"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/KODK\">$柯达(KODK)$</a>元宇宙核心光场相机应该可以涨100倍左右","listText":"<a href=\"https://laohu8.com/S/KODK\">$柯达(KODK)$</a>元宇宙核心光场相机应该可以涨100倍左右","text":"$柯达(KODK)$元宇宙核心光场相机应该可以涨100倍左右","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":1,"repostSize":0,"link":"https://laohu8.com/post/879595736","isVote":1,"tweetType":1,"viewCount":3333,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"lives":[]}