+关注
kirascobol
暂无个人介绍
IP属地:上海
6
关注
1
粉丝
3
主题
0
勋章
主贴
热门
kirascobol
02-07
懂了Tesla卖了换aapl
马斯克评价苹果Vision Pro:“它并没有让我震惊”
kirascobol
01-31
$苹果(AAPL)$
长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀
kirascobol
2021-03-23
这么贵
哔哩哔哩:香港IPO发售价确定为每股808港元
kirascobol
07-06
这篇文章不错,转发给大家看看
@期权叨叨虎:佩洛西买入博通!为什么用期权不用股票?
kirascobol
03-27
这篇文章不错,转发给大家看看
嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场
kirascobol
03-27
在长期看,我们都死了
华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”
kirascobol
02-13
$ARM Holdings Ltd(ARM)$
kirascobol
01-29
这篇文章不错,转发给大家看看
当下全球市场最大规模的交易,少人知晓、牵一发动全身!
kirascobol
01-18
哈哈哈
沪指跌破2800点,刷新2020年4月以来新低
kirascobol
2023-12-12
nv
@半导体Bot:九头蛇英伟达,还有多久才会被拉下宝座?
kirascobol
2023-12-12
说说你对这篇新闻的看法...
抱歉,原内容已删除
kirascobol
2023-11-23
这篇文章不错,转发给大家看看
OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?
kirascobol
2023-10-06
我去
盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升
kirascobol
2023-09-12
这篇文章不错,转发给大家看看
@芯潮:Arm的缺点!
kirascobol
2023-07-25
$NQ100指数主连 2309(NQmain)$
kirascobol
2023-02-15
$恒生科技指数(HSTECH)$
kirascobol
2023-02-10
$恒生科技指数(HSTECH)$
kirascobol
2022-12-06
这篇文章不错,转发给大家看看
抱歉,原内容已删除
kirascobol
2022-12-01
这篇文章不错,转发给大家看看
@蕴翔财经:Whatfix完成对印度学习管理平台Nittio Learn的收购
kirascobol
2022-12-01
这篇文章不错,转发给大家看看
720倍上市回报,老虎红杉软银都去了这里
去老虎APP查看更多动态
{"i18n":{"language":"zh_CN"},"userPageInfo":{"id":"3576073448098987","uuid":"3576073448098987","gmtCreate":1612979424199,"gmtModify":1615982478142,"name":"kirascobol","pinyin":"kirascobol","introduction":"","introductionEn":"","signature":"","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":1,"headSize":6,"tweetSize":23,"questionSize":0,"limitLevel":999,"accountStatus":3,"level":{"id":1,"name":"萌萌虎","nameTw":"萌萌虎","represent":"呱呱坠地","factor":"评论帖子3次或发布1条主帖(非转发)","iconColor":"3C9E83","bgColor":"A2F1D9"},"themeCounts":3,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":1,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-2","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"资深虎友","description":"加入老虎社区1000天","bigImgUrl":"https://static.tigerbbs.com/0063fb68ea29c9ae6858c58630e182d5","smallImgUrl":"https://static.tigerbbs.com/96c699a93be4214d4b49aea6a5a5d1a4","grayImgUrl":"https://static.tigerbbs.com/35b0e542a9ff77046ed69ef602bc105d","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2023.11.08","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001}],"userBadgeCount":1,"currentWearingBadge":null,"individualDisplayBadges":null,"crmLevel":1,"crmLevelSwitch":1,"location":"上海","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":3,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"baikeInfo":{},"tab":"hot","tweets":[{"id":324479695008008,"gmtCreate":1720247734120,"gmtModify":1720247736131,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/324479695008008","repostId":"323761247272984","repostType":1,"repost":{"id":323761247272984,"gmtCreate":1720079438374,"gmtModify":1720079467176,"author":{"id":"4142574206948102","authorId":"4142574206948102","name":"期权叨叨虎","avatar":"https://static.tigerbbs.com/87212d005a0736e14fa8b5e673df8099","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"4142574206948102","authorIdStr":"4142574206948102"},"themes":[],"title":"佩洛西买入博通!为什么用期权不用股票?","htmlText":"被称为“国会山股神”的美国前众议长佩洛西近期频繁出手,根据国会议员交易纪录显示,佩洛西购买了博通的看涨期权和1万股英伟达股票,卖掉了部分特斯拉和VISA股票。资料来源:老虎国际佩洛西买入长期看涨期权根据纪录,6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。这笔交易的总价值估计在1,000,001美元至5,000,000美元之间。两天后的26日,佩洛西又进行了另一笔重要投资,购买了10,000股英伟达公司的股票。这笔交易与博通的购买类似,估值在1,000,001美元至5,000,000美元之间。今年以来,英伟达和博通都经历了大涨,股价分别上涨了154%和52%,这主要受益于人工智能相关支出的激增。其中,英伟达的购买尤其值得注意,因为佩洛西与英伟达有着悠久而引人注目的交易历史,她在2023年末曾进行的一次非常成功的期权交易。而早在2024年初,据报道,佩洛西对英伟达投资收益已经超过了她作为国会议员的年薪。而对于博通的看涨期权,其行权价为800美元,也具有很大的潜在上涨空间,因为华尔街普遍认为博通的股票将在未来12个月内至少再上涨11%。佩洛西这里购买的实际上是期权里面的LEAPS。什么是LEAPS?LEAPS英文全称为long-term equity anticipation securities,指到期日超过 1 年的期权。它们在功能上与大多数其他上市期权相同,只是到期时间更长。除了到期日较晚之外,LEAPS 与短期期权没有什么不同。到期时间越长,长期投资者就越有可能参与长期价格波动。佩洛西LEAPS案例6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。回看当日的期权成交情况,成交价在836.93美元。资料来源:老虎国际佩洛西持有博通的真实成本为期权花费加上800美元的行权价为1","listText":"被称为“国会山股神”的美国前众议长佩洛西近期频繁出手,根据国会议员交易纪录显示,佩洛西购买了博通的看涨期权和1万股英伟达股票,卖掉了部分特斯拉和VISA股票。资料来源:老虎国际佩洛西买入长期看涨期权根据纪录,6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。这笔交易的总价值估计在1,000,001美元至5,000,000美元之间。两天后的26日,佩洛西又进行了另一笔重要投资,购买了10,000股英伟达公司的股票。这笔交易与博通的购买类似,估值在1,000,001美元至5,000,000美元之间。今年以来,英伟达和博通都经历了大涨,股价分别上涨了154%和52%,这主要受益于人工智能相关支出的激增。其中,英伟达的购买尤其值得注意,因为佩洛西与英伟达有着悠久而引人注目的交易历史,她在2023年末曾进行的一次非常成功的期权交易。而早在2024年初,据报道,佩洛西对英伟达投资收益已经超过了她作为国会议员的年薪。而对于博通的看涨期权,其行权价为800美元,也具有很大的潜在上涨空间,因为华尔街普遍认为博通的股票将在未来12个月内至少再上涨11%。佩洛西这里购买的实际上是期权里面的LEAPS。什么是LEAPS?LEAPS英文全称为long-term equity anticipation securities,指到期日超过 1 年的期权。它们在功能上与大多数其他上市期权相同,只是到期时间更长。除了到期日较晚之外,LEAPS 与短期期权没有什么不同。到期时间越长,长期投资者就越有可能参与长期价格波动。佩洛西LEAPS案例6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。回看当日的期权成交情况,成交价在836.93美元。资料来源:老虎国际佩洛西持有博通的真实成本为期权花费加上800美元的行权价为1","text":"被称为“国会山股神”的美国前众议长佩洛西近期频繁出手,根据国会议员交易纪录显示,佩洛西购买了博通的看涨期权和1万股英伟达股票,卖掉了部分特斯拉和VISA股票。资料来源:老虎国际佩洛西买入长期看涨期权根据纪录,6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。这笔交易的总价值估计在1,000,001美元至5,000,000美元之间。两天后的26日,佩洛西又进行了另一笔重要投资,购买了10,000股英伟达公司的股票。这笔交易与博通的购买类似,估值在1,000,001美元至5,000,000美元之间。今年以来,英伟达和博通都经历了大涨,股价分别上涨了154%和52%,这主要受益于人工智能相关支出的激增。其中,英伟达的购买尤其值得注意,因为佩洛西与英伟达有着悠久而引人注目的交易历史,她在2023年末曾进行的一次非常成功的期权交易。而早在2024年初,据报道,佩洛西对英伟达投资收益已经超过了她作为国会议员的年薪。而对于博通的看涨期权,其行权价为800美元,也具有很大的潜在上涨空间,因为华尔街普遍认为博通的股票将在未来12个月内至少再上涨11%。佩洛西这里购买的实际上是期权里面的LEAPS。什么是LEAPS?LEAPS英文全称为long-term equity anticipation securities,指到期日超过 1 年的期权。它们在功能上与大多数其他上市期权相同,只是到期时间更长。除了到期日较晚之外,LEAPS 与短期期权没有什么不同。到期时间越长,长期投资者就越有可能参与长期价格波动。佩洛西LEAPS案例6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。回看当日的期权成交情况,成交价在836.93美元。资料来源:老虎国际佩洛西持有博通的真实成本为期权花费加上800美元的行权价为1","images":[{"img":"https://static.tigerbbs.com/1c15b9d49716a57f38cadc5a99ec160c","width":"816","height":"498"},{"img":"https://static.tigerbbs.com/e4b71b6e5ba2442f90681b406dee0062","width":"830","height":"570"},{"img":"https://static.tigerbbs.com/c33931da687629e18b72551d905945e1","width":"831","height":"406"}],"top":1,"highlighted":1,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/323761247272984","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":3,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":433,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":288879290171600,"gmtCreate":1711551614569,"gmtModify":1711551616140,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/288879290171600","repostId":"2422631321","repostType":2,"repost":{"id":"2422631321","pubTimestamp":1711431920,"share":"https://www.laohu8.com/m/news/2422631321?lang=&edition=full","pubTime":"2024-03-26 13:45","market":"us","language":"zh","title":"嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场","url":"https://stock-news.laohu8.com/highlight/detail?id=2422631321","media":"智通财经","summary":"没有采取行动才是最能说明问题的。","content":"<html><head></head><body><p>自1960年代中期以来,<a href=\"https://laohu8.com/S/161125\">标普500</a>指数的总回报率约为34,200%,而“股神”沃伦·巴菲特自担任<a href=\"https://laohu8.com/S/BRK.A\">伯克希尔</a>哈撒韦公司首席执行官以来,该公司的A类股票累计涨幅达到了惊人的5,074,030%。</p><p>他和投资团队通常会寻找那些提供持续竞争优势、拥有坚如磐石的管理团队的企业。由于巴菲特在资金管理方面取得的巨大成功,专业投资者和普通投资者都倾向于参考他的投资策略。投资者可以通过伯克希尔哈撒韦向美国证券交易委员会(SEC)提交的季度持仓报告(13F)来了解巴菲特的买卖情况。</p><p>但有的时候,没有采取行动才是最能说明问题的。</p><p><strong>手握1680亿美元现金</strong></p><p>大约一个月前,伯克希尔哈撒韦布了2023年第四季度业绩。该公司Q4营业利润较上年同期增长约65亿美元,至374亿美元。虽然伯克希尔哈撒韦最为人所知的可能是其价值3760亿美元的投资组合,其中包括45只股票和两只指数基金,但该公司还拥有大约50家企业的股权,如保险公司GEICO和铁路公司BNSF。</p><p>值得注意的是,在过去的五个季度(从2022年10月1日开始)中,巴菲特和他的投资“副手”泰德·韦施勒和托德·库姆斯一直是股票的净卖家。换句话说,在过去15个月里,他们卖出的股票超过了买入的股票,总计接近390亿美元。</p><p>从经营中获得正现金流,再加上一直是股票的净卖家,伯克希尔哈撒韦公司的现金储备膨胀至1676亿美元的历史最高水平。</p><p>一般来说,手头拥有大量现金,为大多数企业提供了在创新、资本回报和收购方面令人羡慕的财务灵活性。</p><p>但伯克希尔哈撒韦公司并不是一家普通的公司。几十年来,巴菲特和他的团队一直指望用伯克希尔的资本来补充营业利润的增长,并推动投资收益。简而言之,快速增长的现金储备表明,巴菲特没有找到任何值得投资的公司。他不愿将公司的资本投入使用,这是一个无声的警告,投资者不应忽视。</p><p><strong>美股估值处于历史高位</strong></p><p>尽管巴菲特声称永远不会做空美国,但伯克希尔不断增长的现金储备表明,如果估值不合适,他也不会押注股票。</p><p>虽然华尔街不乏分析估值的方法,但标普500指数的席勒市盈率(P/E),也被称为周期调整市盈率(CAPE),是最好的方法之一。</p><p>席勒市盈率不像传统市盈率那样使用过去12个月的收益,而是基于过去10年经通胀调整后的平均收益。经通胀调整后的收益剔除了可能影响传统估值分析的一次性事件,如新冠疫情。</p><p>回溯至1871年,标普500指数的席勒市盈率平均为17.1倍,不算高。截至2024年3月20日收盘,标普500指数的席勒市盈率略低于35倍。这是牛市期间最高的倍数之一。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/34ebef9781a0613cde1e49761b51b7ba\" title=\"\" tg-width=\"867\" tg-height=\"561\"/></p><p>纵观历史,每当席勒市盈率超过30倍并长时间保持这一水平时,股市面临下跌风险。自1871年起,道琼斯工业平均指数或标普500指数曾出现过五次这样的情况,最终股市都下跌了20%至89%。</p><p>不过,席勒市盈率并不是一个择时工具。例如,1997年至2001年间,该指标有4年时间保持在30以上,之后互联网泡沫重创了估值较高的成长型股票。现在席勒市盈率接近35并不意味着股市很快就会出现下跌。但历史确实表明,熊市终将到来。</p><p>巴菲特在最近致股东的年度信中表示:“不管出于什么原因,现在的市场表现出比我年轻时更像赌场的行为。”一位著名投资者将股市形容为“赌场”,这表明目前很难找到价值。</p><p><strong>耐心和远见永远胜过市场时机</strong></p><p>尽管巴菲特对华尔街的“赌场”特征直言不讳,但他曾多次明确表示永远不会做空美国。巴菲特比大多数投资者更明白,耐心和远见远比试图把握股票的短期走势重要得多。</p><p>例如,经济放缓和衰退是经济周期的正常组成部分。自第二次世界大战结束以来,美国经历了12次经济衰退,其中9次在不到一年的时间里就得到解决。其余3次均未超过18个月。相比之下,大多数增长期都能持续数年,有2次增长时间超过了10年大关。</p><p>这种经济扩张和衰退持续时间的不平衡在股市上也很明显。虽然股市不能反映美国经济的表现,但企业盈利通常会随着经济的健康状况而起伏。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/55562b8d8ce74a5d968b9acaa5eb1334\" title=\"\" tg-width=\"476\" tg-height=\"715\"/></p><p>Bespoke的数据显示,熊市平均持续286个日历日,约为9.5个月。另一方面,在过去94年里,典型的牛市持续了1,011个日历日,大约是熊市平均时间的3.5倍。事实上,在Bespoke研究的27次牛市中,有13次的持续时间比最长的熊市还要长。</p><p>The Motley Fool分析师Sean Williams认为,巴菲特不断增长的现金储备明确但无声地承认,他和他的团队都没有看到太多价值。但这并不意味着巴菲特放弃了给他和股东带来巨大财富的美国股市。</p><p>半个多世纪以来,巴菲特一直利用伯克希尔的资金,以低廉的价格收购优质企业。虽然没有人知道巴菲特什么时候会再次出手,但可以肯定的是,在未来的某个时候,伯克希尔1680亿美元现金储备中的相当一部分将会投入使用。</p></body></html>","source":"stock_zhitongcaijing","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-26 13:45 北京时间 <a href=http://www.zhitongcaijing.com/content/detail/1092146.html><strong>智通财经</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>自1960年代中期以来,标普500指数的总回报率约为34,200%,而“股神”沃伦·巴菲特自担任伯克希尔哈撒韦公司首席执行官以来,该公司的A类股票累计涨幅达到了惊人的5,074,030%。他和投资团队通常会寻找那些提供持续竞争优势、拥有坚如磐石的管理团队的企业。由于巴菲特在资金管理方面取得的巨大成功,专业投资者和普通投资者都倾向于参考他的投资策略。投资者可以通过伯克希尔哈撒韦向美国证券交易委员会(...</p>\n\n<a href=\"http://www.zhitongcaijing.com/content/detail/1092146.html\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/f3ecc14db02762fcb82cdbb76e654301","relate_stocks":{"BRK.A":"伯克希尔","BRK.B":"伯克希尔B"},"source_url":"http://www.zhitongcaijing.com/content/detail/1092146.html","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2422631321","content_text":"自1960年代中期以来,标普500指数的总回报率约为34,200%,而“股神”沃伦·巴菲特自担任伯克希尔哈撒韦公司首席执行官以来,该公司的A类股票累计涨幅达到了惊人的5,074,030%。他和投资团队通常会寻找那些提供持续竞争优势、拥有坚如磐石的管理团队的企业。由于巴菲特在资金管理方面取得的巨大成功,专业投资者和普通投资者都倾向于参考他的投资策略。投资者可以通过伯克希尔哈撒韦向美国证券交易委员会(SEC)提交的季度持仓报告(13F)来了解巴菲特的买卖情况。但有的时候,没有采取行动才是最能说明问题的。手握1680亿美元现金大约一个月前,伯克希尔哈撒韦布了2023年第四季度业绩。该公司Q4营业利润较上年同期增长约65亿美元,至374亿美元。虽然伯克希尔哈撒韦最为人所知的可能是其价值3760亿美元的投资组合,其中包括45只股票和两只指数基金,但该公司还拥有大约50家企业的股权,如保险公司GEICO和铁路公司BNSF。值得注意的是,在过去的五个季度(从2022年10月1日开始)中,巴菲特和他的投资“副手”泰德·韦施勒和托德·库姆斯一直是股票的净卖家。换句话说,在过去15个月里,他们卖出的股票超过了买入的股票,总计接近390亿美元。从经营中获得正现金流,再加上一直是股票的净卖家,伯克希尔哈撒韦公司的现金储备膨胀至1676亿美元的历史最高水平。一般来说,手头拥有大量现金,为大多数企业提供了在创新、资本回报和收购方面令人羡慕的财务灵活性。但伯克希尔哈撒韦公司并不是一家普通的公司。几十年来,巴菲特和他的团队一直指望用伯克希尔的资本来补充营业利润的增长,并推动投资收益。简而言之,快速增长的现金储备表明,巴菲特没有找到任何值得投资的公司。他不愿将公司的资本投入使用,这是一个无声的警告,投资者不应忽视。美股估值处于历史高位尽管巴菲特声称永远不会做空美国,但伯克希尔不断增长的现金储备表明,如果估值不合适,他也不会押注股票。虽然华尔街不乏分析估值的方法,但标普500指数的席勒市盈率(P/E),也被称为周期调整市盈率(CAPE),是最好的方法之一。席勒市盈率不像传统市盈率那样使用过去12个月的收益,而是基于过去10年经通胀调整后的平均收益。经通胀调整后的收益剔除了可能影响传统估值分析的一次性事件,如新冠疫情。回溯至1871年,标普500指数的席勒市盈率平均为17.1倍,不算高。截至2024年3月20日收盘,标普500指数的席勒市盈率略低于35倍。这是牛市期间最高的倍数之一。纵观历史,每当席勒市盈率超过30倍并长时间保持这一水平时,股市面临下跌风险。自1871年起,道琼斯工业平均指数或标普500指数曾出现过五次这样的情况,最终股市都下跌了20%至89%。不过,席勒市盈率并不是一个择时工具。例如,1997年至2001年间,该指标有4年时间保持在30以上,之后互联网泡沫重创了估值较高的成长型股票。现在席勒市盈率接近35并不意味着股市很快就会出现下跌。但历史确实表明,熊市终将到来。巴菲特在最近致股东的年度信中表示:“不管出于什么原因,现在的市场表现出比我年轻时更像赌场的行为。”一位著名投资者将股市形容为“赌场”,这表明目前很难找到价值。耐心和远见永远胜过市场时机尽管巴菲特对华尔街的“赌场”特征直言不讳,但他曾多次明确表示永远不会做空美国。巴菲特比大多数投资者更明白,耐心和远见远比试图把握股票的短期走势重要得多。例如,经济放缓和衰退是经济周期的正常组成部分。自第二次世界大战结束以来,美国经历了12次经济衰退,其中9次在不到一年的时间里就得到解决。其余3次均未超过18个月。相比之下,大多数增长期都能持续数年,有2次增长时间超过了10年大关。这种经济扩张和衰退持续时间的不平衡在股市上也很明显。虽然股市不能反映美国经济的表现,但企业盈利通常会随着经济的健康状况而起伏。Bespoke的数据显示,熊市平均持续286个日历日,约为9.5个月。另一方面,在过去94年里,典型的牛市持续了1,011个日历日,大约是熊市平均时间的3.5倍。事实上,在Bespoke研究的27次牛市中,有13次的持续时间比最长的熊市还要长。The Motley Fool分析师Sean Williams认为,巴菲特不断增长的现金储备明确但无声地承认,他和他的团队都没有看到太多价值。但这并不意味着巴菲特放弃了给他和股东带来巨大财富的美国股市。半个多世纪以来,巴菲特一直利用伯克希尔的资金,以低廉的价格收购优质企业。虽然没有人知道巴菲特什么时候会再次出手,但可以肯定的是,在未来的某个时候,伯克希尔1680亿美元现金储备中的相当一部分将会投入使用。","news_type":1},"isVote":1,"tweetType":1,"viewCount":569,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":288683464519808,"gmtCreate":1711512129293,"gmtModify":1711512131038,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"在长期看,我们都死了","listText":"在长期看,我们都死了","text":"在长期看,我们都死了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/288683464519808","repostId":"2422650248","repostType":2,"repost":{"id":"2422650248","pubTimestamp":1711503369,"share":"https://www.laohu8.com/m/news/2422650248?lang=&edition=full","pubTime":"2024-03-27 09:36","market":"hk","language":"zh","title":"华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”","url":"https://stock-news.laohu8.com/highlight/detail?id=2422650248","media":"智通财经网","summary":"华尔街近期的看涨研报可谓一份比一份激进,继高盛大胆预测标普500指数2024年有望冲向6000点之后,美国银行近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——标普500指数有望在接下去的几年里进一步强势上涨,进而全面延续“史诗级长牛”之势。","content":"<html><head></head><body><blockquote><p><a href=\"https://laohu8.com/S/BAC\">美国银行</a>的策略师们表示,美股“长牛”即将迎来第11年。该机构称这次反弹尚处“中年”阶段,并预计2026年底之前可能将飙升约34%。</p></blockquote><p>华尔街近期的看涨研报可谓一份比一份激进,继<a href=\"https://laohu8.com/S/GS\">高盛</a>大胆预测<a href=\"https://laohu8.com/S/161125\">标普500</a>指数2024年有望冲向6000点之后,美国银行(Bank of America)近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——标普500指数有望在接下去的几年里进一步强势上涨,进而全面延续“史诗级长牛”之势。</p><p>随着标普500指数在今年不断刷新历史新高,美国银行的策略师们表示,从股市长牛的技术面趋势来看,美股本轮堪称史诗级的“长牛”有望持续至2030年左右,并预计标普500指数2026年年底之前可能将升至7000点(截至周一美股收盘,标普500指数收于5218.19点)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/df35afb835bdc3ec9ff81f83418358d9\" title=\"\" tg-width=\"1073\" tg-height=\"523\"/></p><p>美银的策略师们在报告中表示,美股这轮长期牛市正式开始于2013年4月,当时美国股市超越了2007年和2000年所创下的历史级别峰值。这种长期的史诗级牛市涨势在2023年12月再次得到证实,当时标普500指数在4,600这一点位附近突破其技术面上关键的“看涨杯柄模式”。自那以来,标普500指数已攀升逾14%,且2024年以来不断创下历史新高。</p><p>美银的策略师们预计,标普500指数的“史诗级长牛”之势将持续,并暗示该指数到2026年底之前可能将再上涨大约34%。“标普500指数已经从2022年10月的阶段性的低点大幅反弹约46%,”美国银行技术策略师萨特迈尔(Stephen Suttmeier)领导的策略团队表示。“并且从历史性的低点突破性反弹106%的美股牛市按照反弹中位数理论可能将继续大约四年,这意味着,不排除标普到2026年底之前上涨至7000点的可能性。”</p><p><strong>2013年开启的美股史诗级“长牛”之势,有望持续至2030年</strong></p><p>至于这一轮史诗级的美股“长期牛市”何时将出现停止迹象,萨特迈尔领导的美银策略师们预计至少在2030年之前看不到这一轮美股“史诗级长牛”的尽头。美银策略师们写道:“ 1950-1966年,以及1980-2000年的美股长期牛市分别持续了16年与20年,这意味着当前的美股长期牛市仅仅处于‘中年阶段’,非常有可能延续到2029年 - 2033年。"</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a905095f46ff74744e0f2fa44ea033c\" title=\"\" tg-width=\"800\" tg-height=\"538\"/></p><p>美银策略师们在研报中表示,从技术面角度来看,标普500指数在去年12月突破4,600点这一历史性的大关标志着两个近期价格目标有望达成,分别是5,200点和5,600点。因此,随着5200点的目标已经实现,标普500指数至少在2024年的下一个技术面目标将是继续上涨7%,达到5600点左右。</p><p>此外,萨特迈尔领导的美银策略师们重点强调道,标普500指数在1月突破约4,800点的这一创纪录高位,从技术面上预示着未来的另一个点位目标在6,150点附近,而这一技术面上的目标点位可谓非常激进,比当前的标普500指数点位高出足足18%。但是,该点位一定程度上符合与美国总统选举周期相关的“看涨交易周期”——即美国总统第一个任期的第四年往往对美国股市非常有利。</p><p>从技术面角度来看,在下行底线指标方面,萨特迈尔领导的美银策略师们表示,投资者应关注4,800和4,600点这两大重要的支撑位,这意味着该指数遭遇极端负面催化之下,有可能比当前水平下跌多达12%。</p><p><strong>就2024年美股前景而言,越来越多华尔街策略师上调标普500指数年终点位!</strong></p><p>值得注意的是,就2024年美股前景而言,华尔街的重要看跌势力纷纷转向看涨,越来越多的华尔街顶级策略师上调标普500指数的年终点位。因此,美银策略团队根据技术面所预测的5600点这一点位非常有可能将在2024年实现。此外,美银团队预测的更激进的技术面目标点位——6150点,也有可能实现但是可能性较低,前提是占据标普500指数高额权重的<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>、<a href=\"https://laohu8.com/S/MSFT\">微软</a>等“七大科技巨头”(Magnificent 7)业绩持续远超市场预期。</p><p>七大科技巨头,即Magnificent 7包括:<a href=\"https://laohu8.com/S/AAPL\">苹果</a>、<a href=\"https://laohu8.com/S/MSFT\">微软</a>、<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>、<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>、<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>、<a href=\"https://laohu8.com/S/AMZN\">亚马逊</a>以及<a href=\"https://laohu8.com/S/META\">Meta Platforms</a>。全球投资者们2023年-2024年初期持续蜂拥而至七大科技巨头,尤其将英伟达、微软以及Meta股价不断推向历史新高。最主要的原因可谓是他们纷纷押注,由于科技巨头们的庞大市场规模和财务实力,它们处于利用人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>技术扩展营收的最佳位置。标普500指数在2023年高达23%的涨幅中,这一群体约贡献三分之二。</p><p>全球企业纷纷布局人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>的这股疯狂热潮,以及“AI卖铲人”连续四个季度无与伦比的业绩增长之势可谓令华尔街预测人士感到意外,并促使华尔街策略师们相信AI时代已经到来,人类社会生产效率有望步入新阶段,因此竞相跟上已经超出他们预期的股市反弹步伐,并且越来越多的看跌策略师转向看涨阵营。此外,美股市场上甚至存在这样一种观点:无论AI泡沫是否存在,美股科技股估值都有非常充裕的扩张空间。</p><p>Piper Sandler策略师Michael Kantrowitz可谓是2023年华尔街最看空美国股市的策略师,2023年该策略师甚至看跌美股至3225点,然而标普500指数在2023年以“技术性牛市”打脸Kantrowitz,近期该分析师已经将标普500指数的预期大幅上调至5250点。</p><p>来自美国银行的明星策略师萨勃拉曼尼亚(Savita Subramanian)将该机构对于标普500指数的年终目标上调至5400点,与华尔街最高水平持平。她加入了Yardeni Research的总裁兼创始人埃德•亚德尼(Ed Yardeni)和<a href=\"https://laohu8.com/S/UBS\">瑞银</a>集团(UBS Group AG)的知名策略师乔纳森•戈卢布(Jonathan Golub)的行列,这两位看涨美股的策略师都对截至年底的美股前景持相同的积极看法,看涨至5400点这一乐观点位。</p><p>随着美股大幅上涨引发与过去泡沫时期的全面对比,国际大行$法国<a href=\"https://laohu8.com/S/601166\">兴业银行</a>(0J6Y.UK)$的策略师们表示,强劲的业绩和美国经济重新加速的迹象表明这种涨势是合理的。该行的美股策略主管卡布拉(Manish Kabra)领导的团队在近日发布的一份报告中写道:“我们认为当前涨势更多由理性乐观而不是非理性繁荣所推动。”策略师提到的“好于预期”的企业盈利广度、新利润周期高点以及全球领先指标好转。</p><p>关于当前美股科技股是否已经处于泡沫之中,卡布拉领导的法兴银行策略师们则表示,如果套用1999年互联网泡沫顶峰时期的各项数据,标普500指数需要升至至少6250点才能与当时非理性繁荣周期的“科技股泡沫”水平相提并论,相比之下美股最新收于5218.19点。</p><p>此外,卡布拉领导的法兴银行策略师们将其对标普500指数在2024年底的目标点位由4750点上调至5500点,策略师们表示,在企业盈利前景改善和人工智能热潮的背景下,美国股市创纪录的上涨势头可谓不可阻挡。</p><p>来自华尔街大行<a href=\"https://laohu8.com/S/GS\">高盛</a>的策略师们重申标普500指数年终目标将在5200点,但策略师们认为英伟达等大型科技公司业绩持续强劲将推动科技股持续上涨,进而可能将该基准指数推高至6000点。“我们最乐观的预测点位将是标普500指数从目前的水平上涨约15%,到年底达到6000点。”高盛策略师们在上周五发布的一份研报中表示。</p><p><a href=\"https://laohu8.com/S/BCS\">巴克莱银行</a>可谓是华尔街最看好美股后市的投资机构之一。将该机构对美股基准指数——标普500指数的年底目标价从4800点大幅上调至5300点,主要因预期美股将继续受益于大型科技公司的丰厚盈利数据和美国经济在市场意料之外的优异表现。巴克莱在报告中还指出,如果大型科技公司的核心业绩数据延续远超预期的强劲表现,那么该机构认为标普500指数今年年末将有可能达到6050点。</p></body></html>","source":"sina","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-27 09:36 北京时间 <a href=https://finance.sina.com.cn/stock/hkstock/ggscyd/2024-03-26/doc-inaprwin0500639.shtml><strong>智通财经网</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>美国银行的策略师们表示,美股“长牛”即将迎来第11年。该机构称这次反弹尚处“中年”阶段,并预计2026年底之前可能将飙升约34%。华尔街近期的看涨研报可谓一份比一份激进,继高盛大胆预测标普500指数2024年有望冲向6000点之后,美国银行(Bank of America)近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——...</p>\n\n<a href=\"https://finance.sina.com.cn/stock/hkstock/ggscyd/2024-03-26/doc-inaprwin0500639.shtml\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/af47ab6c10e46f0aea6733871f311696","relate_stocks":{"BK4587":"ChatGPT概念","IE0004445015.USD":"JANUS HENDERSON BALANCED \"A2\" (USD) ACC","SDS":"两倍做空标普500ETF","LU0097036916.USD":"贝莱德美国增长A2 USD","LU0466842654.USD":"HSBC ISLAMIC GLOBAL EQUITY INDEX \"A\" (USD) ACC","BK4527":"明星科技股","BK4559":"巴菲特持仓","LU0511384066.AUD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"A\" (AUDHDG) ACC","BK4579":"人工智能","LU0320765059.SGD":"FTIF - Franklin US Opportunities A Acc SGD","IE00B3M56506.USD":"NEUBERGER BERMAN EMERGING MARKETS EQUITY \"A\" (USD) ACC","BK4588":"碎股","BK4550":"红杉资本持仓","IE00BD6J9T35.USD":"NEUBERGER BERMAN NEXT GENERATION MOBILITY \"A\" (USD) ACC","BK4141":"半导体产品","LU0198837287.USD":"UBS (LUX) EQUITY SICAV - USA GROWTH \"P\" (USD) ACC","LU0444971666.USD":"天利全球科技基金","BK4503":"景林资产持仓","LU0289961442.SGD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"AX\" (SGD) ACC","IE0034235188.USD":"PINEBRIDGE GLOBAL FOCUS EQUITY \"A\" (USD) ACC","OEX":"标普100","BK4551":"寇图资本持仓",".SPX":"S&P 500 Index","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","SH":"标普500反向ETF","BK4581":"高盛持仓","LU0234570918.USD":"高盛全球核心股票组合Acc Close","LU0289739343.SGD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"A\" (SGD) ACC","BK4504":"桥水持仓","UPRO":"三倍做多标普500ETF","OEF":"标普100指数ETF-iShares","IVV":"标普500指数ETF","SSO":"两倍做多标普500ETF","LU0238689110.USD":"贝莱德环球动力股票基金","LU0170899867.USD":"EASTSPRING INVESTMENTS WORLD VALUE EQUITY \"A\" (USD) ACC","LU0072462426.USD":"贝莱德全球配置 A2","BK4529":"IDC概念","SPXU":"三倍做空标普500ETF","LU0079474960.USD":"联博美国增长基金A","LU0056508442.USD":"贝莱德世界科技基金A2","BK4592":"伊斯兰概念","LU0640476718.USD":"THREADNEEDLE (LUX) US CONTRARIAN CORE EQ \"AU\" (USD) ACC","NVDA":"英伟达","IE00BJJMRY28.SGD":"Janus Henderson Balanced A Inc SGD","SPY":"标普500ETF","BK4567":"ESG概念","BK4585":"ETF&股票定投概念","IE00BMPRXN33.USD":"NEUBERGER BERMAN 5G CONNECTIVITY \"A\" (USD) ACC","LU0109392836.USD":"富兰克林科技股A"},"source_url":"https://finance.sina.com.cn/stock/hkstock/ggscyd/2024-03-26/doc-inaprwin0500639.shtml","is_english":false,"share_image_url":"https://static.laohu8.com/b0d1b7e8843deea78cc308b15114de44","article_id":"2422650248","content_text":"美国银行的策略师们表示,美股“长牛”即将迎来第11年。该机构称这次反弹尚处“中年”阶段,并预计2026年底之前可能将飙升约34%。华尔街近期的看涨研报可谓一份比一份激进,继高盛大胆预测标普500指数2024年有望冲向6000点之后,美国银行(Bank of America)近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——标普500指数有望在接下去的几年里进一步强势上涨,进而全面延续“史诗级长牛”之势。随着标普500指数在今年不断刷新历史新高,美国银行的策略师们表示,从股市长牛的技术面趋势来看,美股本轮堪称史诗级的“长牛”有望持续至2030年左右,并预计标普500指数2026年年底之前可能将升至7000点(截至周一美股收盘,标普500指数收于5218.19点)。美银的策略师们在报告中表示,美股这轮长期牛市正式开始于2013年4月,当时美国股市超越了2007年和2000年所创下的历史级别峰值。这种长期的史诗级牛市涨势在2023年12月再次得到证实,当时标普500指数在4,600这一点位附近突破其技术面上关键的“看涨杯柄模式”。自那以来,标普500指数已攀升逾14%,且2024年以来不断创下历史新高。美银的策略师们预计,标普500指数的“史诗级长牛”之势将持续,并暗示该指数到2026年底之前可能将再上涨大约34%。“标普500指数已经从2022年10月的阶段性的低点大幅反弹约46%,”美国银行技术策略师萨特迈尔(Stephen Suttmeier)领导的策略团队表示。“并且从历史性的低点突破性反弹106%的美股牛市按照反弹中位数理论可能将继续大约四年,这意味着,不排除标普到2026年底之前上涨至7000点的可能性。”2013年开启的美股史诗级“长牛”之势,有望持续至2030年至于这一轮史诗级的美股“长期牛市”何时将出现停止迹象,萨特迈尔领导的美银策略师们预计至少在2030年之前看不到这一轮美股“史诗级长牛”的尽头。美银策略师们写道:“ 1950-1966年,以及1980-2000年的美股长期牛市分别持续了16年与20年,这意味着当前的美股长期牛市仅仅处于‘中年阶段’,非常有可能延续到2029年 - 2033年。\"美银策略师们在研报中表示,从技术面角度来看,标普500指数在去年12月突破4,600点这一历史性的大关标志着两个近期价格目标有望达成,分别是5,200点和5,600点。因此,随着5200点的目标已经实现,标普500指数至少在2024年的下一个技术面目标将是继续上涨7%,达到5600点左右。此外,萨特迈尔领导的美银策略师们重点强调道,标普500指数在1月突破约4,800点的这一创纪录高位,从技术面上预示着未来的另一个点位目标在6,150点附近,而这一技术面上的目标点位可谓非常激进,比当前的标普500指数点位高出足足18%。但是,该点位一定程度上符合与美国总统选举周期相关的“看涨交易周期”——即美国总统第一个任期的第四年往往对美国股市非常有利。从技术面角度来看,在下行底线指标方面,萨特迈尔领导的美银策略师们表示,投资者应关注4,800和4,600点这两大重要的支撑位,这意味着该指数遭遇极端负面催化之下,有可能比当前水平下跌多达12%。就2024年美股前景而言,越来越多华尔街策略师上调标普500指数年终点位!值得注意的是,就2024年美股前景而言,华尔街的重要看跌势力纷纷转向看涨,越来越多的华尔街顶级策略师上调标普500指数的年终点位。因此,美银策略团队根据技术面所预测的5600点这一点位非常有可能将在2024年实现。此外,美银团队预测的更激进的技术面目标点位——6150点,也有可能实现但是可能性较低,前提是占据标普500指数高额权重的英伟达、微软等“七大科技巨头”(Magnificent 7)业绩持续远超市场预期。七大科技巨头,即Magnificent 7包括:苹果、微软、谷歌、特斯拉、英伟达、亚马逊以及Meta Platforms。全球投资者们2023年-2024年初期持续蜂拥而至七大科技巨头,尤其将英伟达、微软以及Meta股价不断推向历史新高。最主要的原因可谓是他们纷纷押注,由于科技巨头们的庞大市场规模和财务实力,它们处于利用人工智能技术扩展营收的最佳位置。标普500指数在2023年高达23%的涨幅中,这一群体约贡献三分之二。全球企业纷纷布局人工智能的这股疯狂热潮,以及“AI卖铲人”连续四个季度无与伦比的业绩增长之势可谓令华尔街预测人士感到意外,并促使华尔街策略师们相信AI时代已经到来,人类社会生产效率有望步入新阶段,因此竞相跟上已经超出他们预期的股市反弹步伐,并且越来越多的看跌策略师转向看涨阵营。此外,美股市场上甚至存在这样一种观点:无论AI泡沫是否存在,美股科技股估值都有非常充裕的扩张空间。Piper Sandler策略师Michael Kantrowitz可谓是2023年华尔街最看空美国股市的策略师,2023年该策略师甚至看跌美股至3225点,然而标普500指数在2023年以“技术性牛市”打脸Kantrowitz,近期该分析师已经将标普500指数的预期大幅上调至5250点。来自美国银行的明星策略师萨勃拉曼尼亚(Savita Subramanian)将该机构对于标普500指数的年终目标上调至5400点,与华尔街最高水平持平。她加入了Yardeni Research的总裁兼创始人埃德•亚德尼(Ed Yardeni)和瑞银集团(UBS Group AG)的知名策略师乔纳森•戈卢布(Jonathan Golub)的行列,这两位看涨美股的策略师都对截至年底的美股前景持相同的积极看法,看涨至5400点这一乐观点位。随着美股大幅上涨引发与过去泡沫时期的全面对比,国际大行$法国兴业银行(0J6Y.UK)$的策略师们表示,强劲的业绩和美国经济重新加速的迹象表明这种涨势是合理的。该行的美股策略主管卡布拉(Manish Kabra)领导的团队在近日发布的一份报告中写道:“我们认为当前涨势更多由理性乐观而不是非理性繁荣所推动。”策略师提到的“好于预期”的企业盈利广度、新利润周期高点以及全球领先指标好转。关于当前美股科技股是否已经处于泡沫之中,卡布拉领导的法兴银行策略师们则表示,如果套用1999年互联网泡沫顶峰时期的各项数据,标普500指数需要升至至少6250点才能与当时非理性繁荣周期的“科技股泡沫”水平相提并论,相比之下美股最新收于5218.19点。此外,卡布拉领导的法兴银行策略师们将其对标普500指数在2024年底的目标点位由4750点上调至5500点,策略师们表示,在企业盈利前景改善和人工智能热潮的背景下,美国股市创纪录的上涨势头可谓不可阻挡。来自华尔街大行高盛的策略师们重申标普500指数年终目标将在5200点,但策略师们认为英伟达等大型科技公司业绩持续强劲将推动科技股持续上涨,进而可能将该基准指数推高至6000点。“我们最乐观的预测点位将是标普500指数从目前的水平上涨约15%,到年底达到6000点。”高盛策略师们在上周五发布的一份研报中表示。巴克莱银行可谓是华尔街最看好美股后市的投资机构之一。将该机构对美股基准指数——标普500指数的年底目标价从4800点大幅上调至5300点,主要因预期美股将继续受益于大型科技公司的丰厚盈利数据和美国经济在市场意料之外的优异表现。巴克莱在报告中还指出,如果大型科技公司的核心业绩数据延续远超预期的强劲表现,那么该机构认为标普500指数今年年末将有可能达到6050点。","news_type":1},"isVote":1,"tweetType":1,"viewCount":871,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":273375960932488,"gmtCreate":1707789504088,"gmtModify":1707792659343,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/ARM\">$ARM Holdings Ltd(ARM)$</a> ","listText":"<a href=\"https://laohu8.com/S/ARM\">$ARM Holdings Ltd(ARM)$</a> ","text":"$ARM Holdings Ltd(ARM)$","images":[{"img":"https://static.tigerbbs.com/456e0de3c10f39ca549d71a7e6ffb5f9","width":"981","height":"1637"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/273375960932488","isVote":1,"tweetType":1,"viewCount":546,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"EN","totalScore":0},{"id":271328040509552,"gmtCreate":1707293956558,"gmtModify":1707293958057,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"懂了Tesla卖了换aapl","listText":"懂了Tesla卖了换aapl","text":"懂了Tesla卖了换aapl","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/271328040509552","repostId":"2409162512","repostType":2,"repost":{"id":"2409162512","pubTimestamp":1707293346,"share":"https://www.laohu8.com/m/news/2409162512?lang=&edition=full","pubTime":"2024-02-07 16:09","market":"us","language":"zh","title":"马斯克评价苹果Vision Pro:“它并没有让我震惊”","url":"https://stock-news.laohu8.com/highlight/detail?id=2409162512","media":"环球市场播报","summary":"感觉还没到那一步。","content":"<html><head></head><body><p><a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>CEO埃隆·马斯克周三在X平台上回应了一位用户对<a href=\"https://laohu8.com/S/AAPL\">苹果</a>MR头显Vision Pro的评论。</p><p>该用户写道:“一旦你长时间体验了Vision Pro,你就很容易想象到未来你会戴上一副眼镜,让你以前所未有的方式与现实互动。它只会在你需要的时候出现。它将是无干扰的,但超级沉浸式的。它将与你所有的应用和服务协同工作。它将取代显示器、电视、手机和其他任何有屏幕的东西。”</p><p>这位用户在帖子的最后总结道:“这就是我对苹果Vision Pro的感觉。这就是未来,但还没到。”</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9f1aed1df82e9507a9d7d0e23316ea83\" tg-width=\"550\" tg-height=\"629\"/></p><p>马斯克回应称:“感觉还没到那一步。我试过Vision了,但它并没有让我震惊。”</p><p>不过,马斯克接着说:“iPhone 1在我看来也不怎么样。考虑到所有因素,它的实用性比其他替代品要低,但到了iPhone 3,它无疑是最好的‘智能手机’。”</p></body></html>","source":"lsy1687560890796","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>马斯克评价苹果Vision Pro:“它并没有让我震惊”</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n马斯克评价苹果Vision Pro:“它并没有让我震惊”\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-02-07 16:09 北京时间 <a href=https://finance.sina.com.cn/stock/usstock/c/2024-02-07/doc-inaheyrc8522329.shtml><strong>环球市场播报</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>特斯拉CEO埃隆·马斯克周三在X平台上回应了一位用户对苹果MR头显Vision Pro的评论。该用户写道:“一旦你长时间体验了Vision Pro,你就很容易想象到未来你会戴上一副眼镜,让你以前所未有的方式与现实互动。它只会在你需要的时候出现。它将是无干扰的,但超级沉浸式的。它将与你所有的应用和服务协同工作。它将取代显示器、电视、手机和其他任何有屏幕的东西。”这位用户在帖子的最后总结道:“这就是我...</p>\n\n<a href=\"https://finance.sina.com.cn/stock/usstock/c/2024-02-07/doc-inaheyrc8522329.shtml\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/bbd32e766c275244b020439e49e07673","relate_stocks":{"AAPL":"苹果"},"source_url":"https://finance.sina.com.cn/stock/usstock/c/2024-02-07/doc-inaheyrc8522329.shtml","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2409162512","content_text":"特斯拉CEO埃隆·马斯克周三在X平台上回应了一位用户对苹果MR头显Vision Pro的评论。该用户写道:“一旦你长时间体验了Vision Pro,你就很容易想象到未来你会戴上一副眼镜,让你以前所未有的方式与现实互动。它只会在你需要的时候出现。它将是无干扰的,但超级沉浸式的。它将与你所有的应用和服务协同工作。它将取代显示器、电视、手机和其他任何有屏幕的东西。”这位用户在帖子的最后总结道:“这就是我对苹果Vision Pro的感觉。这就是未来,但还没到。”马斯克回应称:“感觉还没到那一步。我试过Vision了,但它并没有让我震惊。”不过,马斯克接着说:“iPhone 1在我看来也不怎么样。考虑到所有因素,它的实用性比其他替代品要低,但到了iPhone 3,它无疑是最好的‘智能手机’。”","news_type":1},"isVote":1,"tweetType":1,"viewCount":1318,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":268803828301968,"gmtCreate":1706656744383,"gmtModify":1706670170801,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/AAPL\">$苹果(AAPL)$ </a><v-v data-views=\"1\"></v-v> 长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀","listText":"<a href=\"https://laohu8.com/S/AAPL\">$苹果(AAPL)$ </a><v-v data-views=\"1\"></v-v> 长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀","text":"$苹果(AAPL)$ 长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/268803828301968","isVote":1,"tweetType":1,"viewCount":2360,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":268364432506984,"gmtCreate":1706541539118,"gmtModify":1706541540423,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/268364432506984","repostId":"1173594683","repostType":2,"repost":{"id":"1173594683","pubTimestamp":1706540883,"share":"https://www.laohu8.com/m/news/1173594683?lang=&edition=full","pubTime":"2024-01-29 23:08","market":"us","language":"zh","title":"当下全球市场最大规模的交易,少人知晓、牵一发动全身!","url":"https://stock-news.laohu8.com/highlight/detail?id=1173594683","media":"华尔街见闻","summary":"当前基差交易的美债持仓规模可能已超过1万亿美元。","content":"<html><head></head><body><p>曾让美国监管“夜不能寐”的基差交易,或许会在今年成为美国金融体系“流动性风险”的导火索。</p><p style=\"text-align: justify;\">1月26日<strong>,</strong>曾任Elliott 资产管理公司投资组合经理和瑞银债券策略师的Meyrick Chapman发文称,对冲基金的美债基差交易(利用美国国债期货和现货市场之间的价差获利的交易策略)“卷土重来”,<strong>当前基差交易的美债持仓规模可能已超过1万亿美元</strong>:</p><blockquote><p style=\"text-align: justify;\">有两种方法可用的方法来衡量基差交易的规模。第一种是观察付款交割(DVP)回购市场的交易变化。</p><p style=\"text-align: justify;\">第二种是美国商品期货交易委员会(CFTC)每周发布交易商承诺(COT)报告,这份报告详细介绍了期货投资者类型的持仓规模。</p></blockquote><p style=\"text-align: justify;\">Chapman认为,如果美联储在5月底已开始因基差交易规模感到担忧,那么自那以后杠杆基金对部分美国国债期货的净空头头寸已经显著增加:</p><blockquote><p style=\"text-align: justify;\">自2023年5月以来,2年期国债的期货空头增加了35%,5年期增加了26%,10年期增加了7%,30年期增加了惊人的66%。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/511c32f8169c617b0265c72381365c33\" tg-width=\"640\" tg-height=\"385\"/></p></blockquote><p style=\"text-align: justify;\">这也是为什么,如果对冲基金的基差交易逆转,对金融体系的影响将是系统性的:</p><blockquote><p style=\"text-align: justify;\">在美联储持续缩表、美债供过于求的情况下,<strong>当前市场中并没有哪个投资人能够平稳吸纳对冲基金规模庞大的持仓量。</strong></p><p style=\"text-align: justify;\">一旦基差交易的美债现货多头抛售美债,将严重消耗市场做市商(主要为纽约联储一级交易商)的流动性储备。交易商居于美元流动性供给的核心,同时牵动多个市场(包括美国国债、回购、机构MBS、企业债、地方政府债券等等)。</p></blockquote><h2 id=\"id_2272433666\" style=\"text-align: start;\">基差交易的美债持仓规模可能已超过1万亿美元</h2><p style=\"text-align: justify;\">Chapman指出,基差交易很可能是当前全球市场最大规模的交易,当前基差交易的美债持仓规模可能已超过1万亿美元,这应该让美国金融监管进一步警觉,流动性风险正在攀升。</p><p style=\"text-align: justify;\">过去一年,对冲基金正大量参与美国国债现货与期货市场的基差套利交易,并导致国债期货合约的空头头寸达到历史新高,市场担忧新一轮美债市场动荡。</p><p style=\"text-align: justify;\">那么基差交易的规模到底有多大,一般而言,基差交易涉及到美国国债现货、期货和回购三个市场:</p><blockquote><p style=\"text-align: justify;\">当国债期货价格相对于现货债券溢价时,常见的相对价值交易策略包括卖出期货远期,建立期货空头头寸,同时买入债券(现货市场多头头寸),做多现券的资金一般来自于回购市场(国债通过回购市场质押变现),并不断将回购滚续展期,直到期货交割。这种交易能产生利润,因为期货和现货价格最终会在期货合约到期日趋同。</p><p style=\"text-align: justify;\">由于基差通常很窄,<strong>投资者需要通过非常高的杠杆来提高利润,即投入很少的自有资本,其余资金来源全靠抵押品来借贷。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/31c74854b35f3ce99c497ceb49d5aea4\" tg-width=\"640\" tg-height=\"288\"/></p></blockquote><p style=\"text-align: justify;\">Chapman在文章中指出,目前没有确切的数据显示对冲基金参与美债基差套利交易的总规模,但美联储此前曾指出,对冲基金几乎完全通过两个场所进行回购借款:通过FICC付款交割(DVP)服务清算的双边国债回购交易,以及非中央清算的双边回购市场(NCCBR)。</p><p style=\"text-align: justify;\">从这两部分分别来看,首先判断对<strong>冲基金通过回购市场的融资量(DVP),</strong>Chapman称,美联储的报告指出,<strong>DVP和美债持仓量高度相关, 对冲基金回购净借款(DVP)与美债持仓量同步上行:</strong></p><blockquote><p style=\"text-align: justify;\">根据商品期货交易委员会(CFTC)提供的金融期货交易者数据和金融研究办公室(OFR)提供的清算回购数据来看,2022.10.4-2023.5.9期间,<strong>对冲基金在担保部分的回购借款增加了1200亿美元</strong>,从1140亿美元增至2330亿美元。</p></blockquote><p style=\"text-align: justify;\">Chapman指出,基差交易的规模其实比DVP数据显示高得多,因此这就要涉及到衡量对冲基金规模的另一个标准——期货市场<strong>:</strong></p><blockquote><p style=\"text-align: justify;\">在2022.10.4-2023.5.9期间,对冲基金在2年期、5年期和10年期合约上的期货空头头寸增加了4110亿美元,总额接近7150亿美元。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f283fe0c274c04df544ad53f4bc8e5e2\" tg-width=\"640\" tg-height=\"196\"/></p></blockquote><p style=\"text-align: justify;\">Chapman称,<strong>这表明基差交易中只有三分之一的资金来自DVP。</strong></p><p style=\"text-align: justify;\">与此同时,Chapman强调,按照金融研究办公室(OFR)在2022年8月的说法:在2019年12月至2021年9月,通过FICC的DVP服务清算的只占冲基金回购交易的8%,<strong>其余部分很可能主要通过非中央清算的双边回购交易。而关于非中央清算的双边市场,没有准确数据源。</strong></p><p style=\"text-align: justify;\">Chapman指出,当前DVP报告的日均交易量约为1.5万亿美元,一个不太疯狂的猜测是,大约三分之一的日交易量可能为基差交易中的杠杆账户提供资金有关,<strong>这一数据已经是2023年5月联储报告中交易量的两倍</strong>:</p><blockquote><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b3a7c08b2f70cf1437cd288b72f5a725\" tg-width=\"640\" tg-height=\"385\"/></p></blockquote><p style=\"text-align: justify;\">而更需要注意的是,Chapman称,正如上述OFR报告所称,还有相当大基差交易资金是<strong>非中央清算的双边回购市场(NCCBR)所提供的,因此如果</strong>本轮美债基差套利交易逆转,美债市场或面临动荡。</p><h2 id=\"id_2729114370\" style=\"text-align: start;\">流动性面临枯竭?</h2><p style=\"text-align: justify;\">华尔街见闻此前提及,当前或许最严重的问题在于,在非中央清算的双边回购市场中,<strong>为基差交易提供资金的正是货币市场基金在RRP的现金:<br/></strong></p><blockquote><p style=\"text-align: justify;\">这将美联储的资产负债表,货币市场基金、私人回购市场,通过基差交易,与当前仍有大量发行需求的美债市场串联到了一起。</p><p style=\"text-align: justify;\">因此,与其说要等到逆回购耗尽后,银行准备金回落才会引发流动性问题,迫使美联储停止QT,一旦ON RRP耗尽,基差交易缺少私人融资支持,那么交易的高杠杆很可能导致流动性问题在金融体系中迅速的扩散,债券市场或许也将承受的严重波动。 </p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/69c57d0d2d39c0976e8476e12cdeb702\" tg-width=\"550\" tg-height=\"520\"/></p></blockquote><p style=\"text-align: justify;\">Redburn Atlantic首席经济学家Melissa Davies高呼,对冲基金将成为快速降低市场流动性的“导火索”,美联储即便冒着通胀卷土重来的风险,也要在未来几个月内结束QT并重启QE。</p><p style=\"text-align: justify;\">Davies指出,RRP资助了对冲基金“基差交易”,这也使得一旦ON RRP耗尽,对冲基金没有了后备力量的支持,其就会从美国国债市场流动性供给者变身需求者,可能会导致流动性问题在金融体系中更快扩散。</p></body></html>","source":"live_wallstreetcn","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>当下全球市场最大规模的交易,少人知晓、牵一发动全身!</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n当下全球市场最大规模的交易,少人知晓、牵一发动全身!\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-01-29 23:08 北京时间 <a href=https://wallstreetcn.com/articles/3707458><strong>华尔街见闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>曾让美国监管“夜不能寐”的基差交易,或许会在今年成为美国金融体系“流动性风险”的导火索。1月26日,曾任Elliott 资产管理公司投资组合经理和瑞银债券策略师的Meyrick Chapman发文称,对冲基金的美债基差交易(利用美国国债期货和现货市场之间的价差获利的交易策略)“卷土重来”,当前基差交易的美债持仓规模可能已超过1万亿美元:有两种方法可用的方法来衡量基差交易的规模。第一种是观察付款交割...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3707458\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/cadcfb88697d09bb90cb85e829df2277","relate_stocks":{},"source_url":"https://wallstreetcn.com/articles/3707458","is_english":false,"share_image_url":"https://static.laohu8.com/cc96873d3d23ee6ac10685520df9c100","article_id":"1173594683","content_text":"曾让美国监管“夜不能寐”的基差交易,或许会在今年成为美国金融体系“流动性风险”的导火索。1月26日,曾任Elliott 资产管理公司投资组合经理和瑞银债券策略师的Meyrick Chapman发文称,对冲基金的美债基差交易(利用美国国债期货和现货市场之间的价差获利的交易策略)“卷土重来”,当前基差交易的美债持仓规模可能已超过1万亿美元:有两种方法可用的方法来衡量基差交易的规模。第一种是观察付款交割(DVP)回购市场的交易变化。第二种是美国商品期货交易委员会(CFTC)每周发布交易商承诺(COT)报告,这份报告详细介绍了期货投资者类型的持仓规模。Chapman认为,如果美联储在5月底已开始因基差交易规模感到担忧,那么自那以后杠杆基金对部分美国国债期货的净空头头寸已经显著增加:自2023年5月以来,2年期国债的期货空头增加了35%,5年期增加了26%,10年期增加了7%,30年期增加了惊人的66%。这也是为什么,如果对冲基金的基差交易逆转,对金融体系的影响将是系统性的:在美联储持续缩表、美债供过于求的情况下,当前市场中并没有哪个投资人能够平稳吸纳对冲基金规模庞大的持仓量。一旦基差交易的美债现货多头抛售美债,将严重消耗市场做市商(主要为纽约联储一级交易商)的流动性储备。交易商居于美元流动性供给的核心,同时牵动多个市场(包括美国国债、回购、机构MBS、企业债、地方政府债券等等)。基差交易的美债持仓规模可能已超过1万亿美元Chapman指出,基差交易很可能是当前全球市场最大规模的交易,当前基差交易的美债持仓规模可能已超过1万亿美元,这应该让美国金融监管进一步警觉,流动性风险正在攀升。过去一年,对冲基金正大量参与美国国债现货与期货市场的基差套利交易,并导致国债期货合约的空头头寸达到历史新高,市场担忧新一轮美债市场动荡。那么基差交易的规模到底有多大,一般而言,基差交易涉及到美国国债现货、期货和回购三个市场:当国债期货价格相对于现货债券溢价时,常见的相对价值交易策略包括卖出期货远期,建立期货空头头寸,同时买入债券(现货市场多头头寸),做多现券的资金一般来自于回购市场(国债通过回购市场质押变现),并不断将回购滚续展期,直到期货交割。这种交易能产生利润,因为期货和现货价格最终会在期货合约到期日趋同。由于基差通常很窄,投资者需要通过非常高的杠杆来提高利润,即投入很少的自有资本,其余资金来源全靠抵押品来借贷。Chapman在文章中指出,目前没有确切的数据显示对冲基金参与美债基差套利交易的总规模,但美联储此前曾指出,对冲基金几乎完全通过两个场所进行回购借款:通过FICC付款交割(DVP)服务清算的双边国债回购交易,以及非中央清算的双边回购市场(NCCBR)。从这两部分分别来看,首先判断对冲基金通过回购市场的融资量(DVP),Chapman称,美联储的报告指出,DVP和美债持仓量高度相关, 对冲基金回购净借款(DVP)与美债持仓量同步上行:根据商品期货交易委员会(CFTC)提供的金融期货交易者数据和金融研究办公室(OFR)提供的清算回购数据来看,2022.10.4-2023.5.9期间,对冲基金在担保部分的回购借款增加了1200亿美元,从1140亿美元增至2330亿美元。Chapman指出,基差交易的规模其实比DVP数据显示高得多,因此这就要涉及到衡量对冲基金规模的另一个标准——期货市场:在2022.10.4-2023.5.9期间,对冲基金在2年期、5年期和10年期合约上的期货空头头寸增加了4110亿美元,总额接近7150亿美元。Chapman称,这表明基差交易中只有三分之一的资金来自DVP。与此同时,Chapman强调,按照金融研究办公室(OFR)在2022年8月的说法:在2019年12月至2021年9月,通过FICC的DVP服务清算的只占冲基金回购交易的8%,其余部分很可能主要通过非中央清算的双边回购交易。而关于非中央清算的双边市场,没有准确数据源。Chapman指出,当前DVP报告的日均交易量约为1.5万亿美元,一个不太疯狂的猜测是,大约三分之一的日交易量可能为基差交易中的杠杆账户提供资金有关,这一数据已经是2023年5月联储报告中交易量的两倍:而更需要注意的是,Chapman称,正如上述OFR报告所称,还有相当大基差交易资金是非中央清算的双边回购市场(NCCBR)所提供的,因此如果本轮美债基差套利交易逆转,美债市场或面临动荡。流动性面临枯竭?华尔街见闻此前提及,当前或许最严重的问题在于,在非中央清算的双边回购市场中,为基差交易提供资金的正是货币市场基金在RRP的现金:这将美联储的资产负债表,货币市场基金、私人回购市场,通过基差交易,与当前仍有大量发行需求的美债市场串联到了一起。因此,与其说要等到逆回购耗尽后,银行准备金回落才会引发流动性问题,迫使美联储停止QT,一旦ON RRP耗尽,基差交易缺少私人融资支持,那么交易的高杠杆很可能导致流动性问题在金融体系中迅速的扩散,债券市场或许也将承受的严重波动。 Redburn Atlantic首席经济学家Melissa Davies高呼,对冲基金将成为快速降低市场流动性的“导火索”,美联储即便冒着通胀卷土重来的风险,也要在未来几个月内结束QT并重启QE。Davies指出,RRP资助了对冲基金“基差交易”,这也使得一旦ON RRP耗尽,对冲基金没有了后备力量的支持,其就会从美国国债市场流动性供给者变身需求者,可能会导致流动性问题在金融体系中更快扩散。","news_type":1},"isVote":1,"tweetType":1,"viewCount":897,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":264305587380536,"gmtCreate":1705544880326,"gmtModify":1705544881668,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"哈哈哈","listText":"哈哈哈","text":"哈哈哈","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/264305587380536","repostId":"1148746601","repostType":2,"repost":{"id":"1148746601","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1705544621,"share":"https://www.laohu8.com/m/news/1148746601?lang=&edition=full","pubTime":"2024-01-18 10:23","market":"sh","language":"zh","title":"沪指跌破2800点,刷新2020年4月以来新低","url":"https://stock-news.laohu8.com/highlight/detail?id=1148746601","media":"老虎资讯综合","summary":"1月18日电,指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。","content":"<html><head></head><body><p>1月18日,A股三大指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a50c638415e16e5983160bcd34f1c8d8\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>机构解读后市</strong></p><p style=\"text-align: start;\">平安证券表示,当前A股市场已经调整至底部,宏观调控政策宽松有望支撑基本面和情绪的修复,同时2023年行情提示当前权益市场的投资逻辑逐步转变至自下而上,结构性机会在增加,建议把握新兴产业边际新变化对投资机会的指引主线:一是科技成长主线(汽车/TMT);二是医药成长主线(创新药/出口链)。</p><p style=\"text-align: start;\">中邮证券表示,展望后市,保持定力,守得云开见月明。当下仍需保持定力,在不确定因素消散之后再积极参与。短期仍侧重防御属性,建议增加高股息个股仓位,可博弈航运和能源。短期由于红海航道受阻,国际货运价格攀升,全球石油运输受阻,可博弈航运和能源方面的机会。中长期来看,从深度参加全球产业链分工和产业周期趋势的角度出发,推荐医药生物、消费电子和汽车零部件。</p><p>中泰证券投顾邓天认为,此次下跌并未有实质因素影响。昨日尾盘及今日早盘有恐慌盘及杠杆资金平仓迹象。市场目前已处于估值历史低位,非理性抛售或在技术上造成破位,但投资者应耐心等待价值回归。操作上,可选择筹码结构上机构介入较少的标的。建议关注公共事业及有注入地方国企资产预期的方向。</p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>沪指跌破2800点,刷新2020年4月以来新低</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n沪指跌破2800点,刷新2020年4月以来新低\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2024-01-18 10:23</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>1月18日,A股三大指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a50c638415e16e5983160bcd34f1c8d8\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>机构解读后市</strong></p><p style=\"text-align: start;\">平安证券表示,当前A股市场已经调整至底部,宏观调控政策宽松有望支撑基本面和情绪的修复,同时2023年行情提示当前权益市场的投资逻辑逐步转变至自下而上,结构性机会在增加,建议把握新兴产业边际新变化对投资机会的指引主线:一是科技成长主线(汽车/TMT);二是医药成长主线(创新药/出口链)。</p><p style=\"text-align: start;\">中邮证券表示,展望后市,保持定力,守得云开见月明。当下仍需保持定力,在不确定因素消散之后再积极参与。短期仍侧重防御属性,建议增加高股息个股仓位,可博弈航运和能源。短期由于红海航道受阻,国际货运价格攀升,全球石油运输受阻,可博弈航运和能源方面的机会。中长期来看,从深度参加全球产业链分工和产业周期趋势的角度出发,推荐医药生物、消费电子和汽车零部件。</p><p>中泰证券投顾邓天认为,此次下跌并未有实质因素影响。昨日尾盘及今日早盘有恐慌盘及杠杆资金平仓迹象。市场目前已处于估值历史低位,非理性抛售或在技术上造成破位,但投资者应耐心等待价值回归。操作上,可选择筹码结构上机构介入较少的标的。建议关注公共事业及有注入地方国企资产预期的方向。</p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/342bdaa24f11a7e9af00a6ff6b22a4db","relate_stocks":{"159982":"中证500","399001":"深证成指","399006":"创业板指","YANG":"三倍做空富时中国ETF-Direxion","YINN":"三倍做多富时中国ETF-Direxion","000001.SH":"上证指数"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1148746601","content_text":"1月18日,A股三大指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。机构解读后市平安证券表示,当前A股市场已经调整至底部,宏观调控政策宽松有望支撑基本面和情绪的修复,同时2023年行情提示当前权益市场的投资逻辑逐步转变至自下而上,结构性机会在增加,建议把握新兴产业边际新变化对投资机会的指引主线:一是科技成长主线(汽车/TMT);二是医药成长主线(创新药/出口链)。中邮证券表示,展望后市,保持定力,守得云开见月明。当下仍需保持定力,在不确定因素消散之后再积极参与。短期仍侧重防御属性,建议增加高股息个股仓位,可博弈航运和能源。短期由于红海航道受阻,国际货运价格攀升,全球石油运输受阻,可博弈航运和能源方面的机会。中长期来看,从深度参加全球产业链分工和产业周期趋势的角度出发,推荐医药生物、消费电子和汽车零部件。中泰证券投顾邓天认为,此次下跌并未有实质因素影响。昨日尾盘及今日早盘有恐慌盘及杠杆资金平仓迹象。市场目前已处于估值历史低位,非理性抛售或在技术上造成破位,但投资者应耐心等待价值回归。操作上,可选择筹码结构上机构介入较少的标的。建议关注公共事业及有注入地方国企资产预期的方向。","news_type":1},"isVote":1,"tweetType":1,"viewCount":870,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":251292649640160,"gmtCreate":1702387934592,"gmtModify":1702387935970,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"nv","listText":"nv","text":"nv","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/251292649640160","repostId":"251335149711664","repostType":1,"repost":{"id":251335149711664,"gmtCreate":1702369234340,"gmtModify":1702369307359,"author":{"id":"10000000000010366","authorId":"10000000000010366","name":"半导体Bot","avatar":"https://static.tigerbbs.com/8d0e9f632cb989ffc1282913c1284971","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"10000000000010366","authorIdStr":"10000000000010366"},"themes":[],"title":"九头蛇英伟达,还有多久才会被拉下宝座?","htmlText":"今年以来,风头最盛的科技公司无疑是英伟达,这家位于美国的跨国科技公司可以说是当今世界上最重要的公司之一。但对于普通人来说,过去除了PC消费者和游戏玩家外,许多人甚至都知道这公司是做什么的。今天我们来复盘一下英伟达的成功史,聊聊这家公司在当下能带给我们哪些启示。创立伊始英伟达成立于1993年初,由黄仁勋,Chris Malachowsky,Curtis Priem三人在美国东圣何塞的一家路边小餐馆创立。相比于创立于1969年的AMD,英伟达其实是一家更为年轻的公司。图片但是三位创始人都拥有深厚的相关行业背景。黄仁勋是中国台湾人,五岁时全家移居到了美国。后来成为了一名电气工程师,曾任LSI Logic 硬件总监和AMD微处理器设计师。Chris Malachowsky 是曾在Sun Microsystems工作的工程师;Curtis Priem曾任IBM和 Sun Microsystems的高级工程师和图形芯片设计师。创立伊始,三人就认为下一波计算浪潮的正确方向是基于图形计算的加速计算,因为它可以解决通用计算无法解决的问题。举例来说,过去的电脑游戏完全依赖CPU进行运算。因为当时游戏主要是在MS-DOS系统下运行,图像简陋,大部分时间是命令行交互。然而,随着游戏技术的不断发展和计算机图形学的进步,越来越多的游戏逐渐从MS-DOS(命令行交互系统)转向Windows(图形交互系统)。随之而来的是视频游戏的数量急剧增加。图片他们当时判断,这类视频游戏在未来将会拥有广阔的市场,而视频游戏所需的图形处理,特别是3D图形,需要大量的浮点数学计算,如何给视频游戏绘制图形,提高动态场景下表现力就是图形计算问题中最具挑战性的问题之一。而CPU中的数学协处理器明显无法满足这些需求。所以电脑图像等图形计算越来越需要专用的图形处理模块。后来GPU的成功也证明了三人对未来的惊人洞察力。视频游戏在未来成","listText":"今年以来,风头最盛的科技公司无疑是英伟达,这家位于美国的跨国科技公司可以说是当今世界上最重要的公司之一。但对于普通人来说,过去除了PC消费者和游戏玩家外,许多人甚至都知道这公司是做什么的。今天我们来复盘一下英伟达的成功史,聊聊这家公司在当下能带给我们哪些启示。创立伊始英伟达成立于1993年初,由黄仁勋,Chris Malachowsky,Curtis Priem三人在美国东圣何塞的一家路边小餐馆创立。相比于创立于1969年的AMD,英伟达其实是一家更为年轻的公司。图片但是三位创始人都拥有深厚的相关行业背景。黄仁勋是中国台湾人,五岁时全家移居到了美国。后来成为了一名电气工程师,曾任LSI Logic 硬件总监和AMD微处理器设计师。Chris Malachowsky 是曾在Sun Microsystems工作的工程师;Curtis Priem曾任IBM和 Sun Microsystems的高级工程师和图形芯片设计师。创立伊始,三人就认为下一波计算浪潮的正确方向是基于图形计算的加速计算,因为它可以解决通用计算无法解决的问题。举例来说,过去的电脑游戏完全依赖CPU进行运算。因为当时游戏主要是在MS-DOS系统下运行,图像简陋,大部分时间是命令行交互。然而,随着游戏技术的不断发展和计算机图形学的进步,越来越多的游戏逐渐从MS-DOS(命令行交互系统)转向Windows(图形交互系统)。随之而来的是视频游戏的数量急剧增加。图片他们当时判断,这类视频游戏在未来将会拥有广阔的市场,而视频游戏所需的图形处理,特别是3D图形,需要大量的浮点数学计算,如何给视频游戏绘制图形,提高动态场景下表现力就是图形计算问题中最具挑战性的问题之一。而CPU中的数学协处理器明显无法满足这些需求。所以电脑图像等图形计算越来越需要专用的图形处理模块。后来GPU的成功也证明了三人对未来的惊人洞察力。视频游戏在未来成","text":"今年以来,风头最盛的科技公司无疑是英伟达,这家位于美国的跨国科技公司可以说是当今世界上最重要的公司之一。但对于普通人来说,过去除了PC消费者和游戏玩家外,许多人甚至都知道这公司是做什么的。今天我们来复盘一下英伟达的成功史,聊聊这家公司在当下能带给我们哪些启示。创立伊始英伟达成立于1993年初,由黄仁勋,Chris Malachowsky,Curtis Priem三人在美国东圣何塞的一家路边小餐馆创立。相比于创立于1969年的AMD,英伟达其实是一家更为年轻的公司。图片但是三位创始人都拥有深厚的相关行业背景。黄仁勋是中国台湾人,五岁时全家移居到了美国。后来成为了一名电气工程师,曾任LSI Logic 硬件总监和AMD微处理器设计师。Chris Malachowsky 是曾在Sun Microsystems工作的工程师;Curtis Priem曾任IBM和 Sun Microsystems的高级工程师和图形芯片设计师。创立伊始,三人就认为下一波计算浪潮的正确方向是基于图形计算的加速计算,因为它可以解决通用计算无法解决的问题。举例来说,过去的电脑游戏完全依赖CPU进行运算。因为当时游戏主要是在MS-DOS系统下运行,图像简陋,大部分时间是命令行交互。然而,随着游戏技术的不断发展和计算机图形学的进步,越来越多的游戏逐渐从MS-DOS(命令行交互系统)转向Windows(图形交互系统)。随之而来的是视频游戏的数量急剧增加。图片他们当时判断,这类视频游戏在未来将会拥有广阔的市场,而视频游戏所需的图形处理,特别是3D图形,需要大量的浮点数学计算,如何给视频游戏绘制图形,提高动态场景下表现力就是图形计算问题中最具挑战性的问题之一。而CPU中的数学协处理器明显无法满足这些需求。所以电脑图像等图形计算越来越需要专用的图形处理模块。后来GPU的成功也证明了三人对未来的惊人洞察力。视频游戏在未来成","images":[{"img":"https://static.tigerbbs.com/00f2084105ade9ebc05d88d007c471c7","width":"618","height":"336"},{"img":"https://static.tigerbbs.com/0f73172ae8eae6cc95eb9ae68f62dd87","width":"1080","height":"675"},{"img":"https://static.tigerbbs.com/6fd5684be7deeac654ad1ba45dd3ba99","width":"1080","height":"699"}],"top":1,"highlighted":1,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/251335149711664","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":12,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":186,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":251209405743208,"gmtCreate":1702338642609,"gmtModify":1702338644029,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"说说你对这篇新闻的看法...","listText":"说说你对这篇新闻的看法...","text":"说说你对这篇新闻的看法...","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/251209405743208","repostId":"2390885398","repostType":2,"isVote":1,"tweetType":1,"viewCount":780,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":244655775129888,"gmtCreate":1700744962684,"gmtModify":1700744964036,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/244655775129888","repostId":"2385143611","repostType":2,"repost":{"id":"2385143611","weMediaInfo":{"introduction":"经纬创投公众平台,创享汇,新闻发布官方平台","home_visible":1,"media_name":"经纬创投","id":"74","head_image":"https://static.tigerbbs.com/c6c12027b4d84f89b5da0a5de2093ad1"},"pubTimestamp":1700722680,"share":"https://www.laohu8.com/m/news/2385143611?lang=&edition=full","pubTime":"2023-11-23 14:58","market":"us","language":"zh","title":"OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?","url":"https://stock-news.laohu8.com/highlight/detail?id=2385143611","media":"经纬创投","summary":"最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:谁能被信任,来打开AI这个$潘多拉$魔盒?在这起Open AI的风波背后,这个问题依然值得我们重视。","content":"<html><head></head><body><p>最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:<strong>董事会到底为什么要突然驱逐Sam Altman?</strong></p><p>最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>发现可能威胁到人类,<strong>这个项目被称为“Q*”(Q-star)</strong>。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。</p><p>董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。</p><p>无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:<strong>谁能被信任,来打开AI这个<a href=\"https://laohu8.com/S/0NQC.UK\">潘多拉</a>魔盒?</strong></p><p>AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。</p><p>所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:<strong>是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。</strong>在这起Open AI的风波背后,这个问题依然值得我们重视。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/045399ec1243d0bdfac1235508850484\" title=\"随着语言模型规模的增长,新能力突然出现;图片来源:Google\" tg-width=\"1079\" tg-height=\"393\"/><span>随着语言模型规模的增长,新能力突然出现;图片来源:Google</span></p><p>“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“<strong>学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。</strong>”</p><p>70多年后,这则恐怖的论断成真了。<strong>大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。</strong><a href=\"https://laohu8.com/S/MSFT\">微软</a>在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?<strong>为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?</strong></p><p>微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……</p><p>搞清楚这些问题其实非常重要,<strong>短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。</strong></p><p><strong>长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>的<a href=\"https://laohu8.com/S/300024\">机器人</a>结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。</strong></p><p>目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,<strong>在文末的注释中会列出这些论文的简介与链接,</strong>供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:</p><p><strong>● 大语言模型令人震惊的理解和推理能力</strong></p><p><strong>● 当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>● 多大的模型规模会出现“涌现”?</strong></p><p><strong>● (附录:本文的论文注释与引用)</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5992222369ad402391979786b9535d32\" title=\"大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models\"/><span>大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</span></p><p><strong>1、大语言模型令人震惊的理解和推理能力</strong></p><p>最近几个月里,硅谷一夜之间出现了几百家应用层的<a href=\"https://laohu8.com/S/V03.SI\">创业公司</a>,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。</p><p>并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。<strong>这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。</strong></p><p>下面我们先列举一些<strong>GPT-4所表现出来的、令人震惊的理解和推理能力:</strong></p><p><img src=\"https://static.tigerbbs.com/3ec8279f39d648168b0617f4af7614c2\" alt=\"\"/>这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。</p><p>给GPT-4提问:你能解释一下作者想表达什么吗?</p><p>GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。</p><p><strong>上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/41e25bcca519475fb6194847629cf74e\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?</p><p>我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。</p><p>我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5849e896a8564c8191ffd628ecb1bdc8\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。</p><p><strong>这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。</strong></p><p><strong>为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。</strong>例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。</p><p>以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?<strong>Google在2022年做了一项重要的基准测试。</strong>研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。</p><p>这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。</p><p>BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。</p><p><strong>还有一些对大语言模型参数规模与性能之间联系的研究,</strong>比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。</p><p>这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。</p><p>还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,<strong>LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。</strong></p><p>目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:<strong>小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。</strong></p><p><strong>2、当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。</strong>在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。</p><p><img src=\"https://static.tigerbbs.com/061be27a983b491ea7f0817e4f9fb34c\" alt=\"\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8121528d65f54ebfad37d20d57a1ecf1\" title=\"近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research\"/><span>近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research</span></p><p><strong>当我们不断加大模型规模时,大语言模型出现了三种表现:</strong></p><p><strong>第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。</strong>从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ebd6d1103dda4ef9acd988b5d2e88f54\" title=\"知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models\"/><span>知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</span></p><p>如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,<strong>各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,</strong>这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。</p><p>另外,<strong>各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。</strong></p><p>世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。</p><p><img src=\"https://static.tigerbbs.com/8405960deda64487903a89e28fdeb607\" alt=\"\"/><em>一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。</em></p><p><em>图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT</em></p><p>更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。</p><p><img src=\"https://static.tigerbbs.com/dca373ac6ea541daa284372693e6bc99\" alt=\"\"/><em>这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。</em></p><p><em>图片来源:Transformer Feed-Forward Layers Are Key-Value Memories</em></p><p><strong>能证明大语言模型是有知识沉淀的,其实非常重要。</strong>OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。</p><p>在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。</p><p><strong>目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。</strong></p><p>另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。</p><p><img src=\"https://static.tigerbbs.com/64869901ee0745e085f571e6f6456cb9\" alt=\"\"/><em>当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models</em></p><p><strong>在上一步的基础上,第二类就是涌现出新能力。</strong>具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。<strong>但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。</strong>经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。</p><p><img src=\"https://static.tigerbbs.com/d3aaae883042412ca8ed4df001c65875\" alt=\"\"/><em>多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</em></p><p><strong>第三种表现是有些情况下,能力效果会呈现U型曲线。</strong>这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。</p><p><img src=\"https://static.tigerbbs.com/ebc9b80391b24fb182f03462fa251be1\" alt=\"\"/><em>图片来源:Google:Inverse scaling can become U-shaped</em></p><p>如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。</p><p>当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。</p><p><strong>3、两种被证明具备“涌现”的典型能力:</strong></p><p><strong>上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。</strong></p><p><strong>第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。</strong></p><p><strong>ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。</strong>这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。</p><p><strong>ICL对大语言模型能否泛化非常重要。</strong>在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。<strong>此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。</strong></p><p><img src=\"https://static.tigerbbs.com/afa4311a3e5846b58b304496187e9e5c\" alt=\"\"/><em>In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?</em></p><p>上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。</p><p>所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。<strong>在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。</strong></p><p>不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。</p><p>还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。</p><p>但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?</p><p>这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。</p><p><strong>第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。</strong></p><p>CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。</p><p><img src=\"https://static.tigerbbs.com/1cfcfc768c364892aee7148d7d0d990c\" alt=\"\"/>图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models</p><p>最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。</p><p>CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,<strong>开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。</strong></p><p>我们在上文分析过,通过<a href=\"https://laohu8.com/S/603138\">海量数据</a>训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。<strong>但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。</strong></p><p>所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。</p><p><img src=\"https://static.tigerbbs.com/8b2479a672f4498d908ab5aca11d58ae\" alt=\"\"/><em>使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p><img src=\"https://static.tigerbbs.com/e8a22dca3ba041bca7f47f1e065de4f0\" alt=\"\"/><em>使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p>如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。</p><p><img src=\"https://static.tigerbbs.com/518a43dc2a9f49f4a4350ad40c21e54b\" alt=\"\"/><em>图片来源:OpenAI:GPT-4 Technical Report</em></p><p><img src=\"https://static.tigerbbs.com/774f97cb97e740e484404bcca764b4fd\" alt=\"\"/><em>一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p><strong>不过目前大模型在复杂推理方面仍然有局限性。</strong>无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。</p><p>比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。</p><p><img src=\"https://static.tigerbbs.com/894714645285430fac5217b5510cbce6\" alt=\"\"/><em>图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4</em></p><p>但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”</p><p>于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。<strong>总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。</strong></p><p><strong>4、多大的模型规模会出现“涌现”?</strong></p><p>我们在上文分析了大模型在哪些任务中出现了涌现现象,<strong>紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?</strong></p><p><strong>根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。</strong></p><p>在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。</p><p><img src=\"https://static.tigerbbs.com/bfdb5cf247c243f281e6ed0b1bc6a651\" alt=\"\"/><em>ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p>而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。</p><p><img src=\"https://static.tigerbbs.com/4bd1c9fa45af4c5f808859a03a62a5c7\" alt=\"\"/>CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</p><p><strong>所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。</strong>例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。</p><p><strong>那么能不能把模型做小?</strong>我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。</p><p><strong>目前小模型的代表之一是DeepMind的Chinchilla,</strong>它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。</p><p>Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。</p><p>于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。</p><p><img src=\"https://static.tigerbbs.com/a507583f14a94d0790c80cc3ac982593\" alt=\"\"/><em>各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language Models</em></p><p><img src=\"https://static.tigerbbs.com/e3ca672bf7ad4cf7a24a55ed565a5999\" alt=\"\"/>Chinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。</p><p>如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。</p><p><img src=\"https://static.tigerbbs.com/b8c2c23a300a4c6db65b6ea1b077aa8b\" alt=\"\"/>图片来源:DeepMind:Training Compute-Optimal Language Models</p><p>在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。</p><p><strong>这里就涉及到了一个核心问题——算力如何分配?</strong>我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。<strong>那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?</strong></p><p>最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。</p><p>OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。<strong>OpenAI的结论是优先增加模型参数,然后才是训练数据量。</strong>假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。</p><p>DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,<strong>DeepMind认为训练数据量也很重要,不亚于模型参数。</strong></p><p>基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。</p><p><strong>另一个“小”模型的例子是Meta推出的LLaMA。</strong>LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。</p><p>从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。</p><p><strong>Meta更进一步的是,把推理成本也纳入进来。</strong>Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。</p><p>所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。</p><p>那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?</p><p><img src=\"https://static.tigerbbs.com/6f3802584c6e43d0a0706d5ecbb28c89\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p><img src=\"https://static.tigerbbs.com/be53cf0e950d45e6a82643a137819d78\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p>上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,<strong>这证明了更小的参数规模,也能产生涌现能力。</strong></p><p>以上这些研究都很有意义,<strong>我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。</strong></p><p><strong>那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。</strong></p><p>一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。</p><p>涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。</p><p>ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。</p><p>微软在GPT-4论文中写道:</p><ul style=\"\"><li><p><em>我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?</em><strong><em>为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?</em></strong></p></li><li><p><em>这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,</em><strong><em>关键方向就是对大语言模型涌现现象的持续研究。</em></strong></p></li><li><p><em>阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,</em><strong><em>这个挑战在今天已经突然变得重要和紧迫。</em></strong></p></li></ul><p>1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:</p><ul style=\"\"><li><p><em>机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;</em></p></li><li><p><em>在不违反第一定律的前提下,机器人必须服从人给予它的命令;</em></p></li><li><p><em>机器人在不违反第一、第二定律的情况下要尽力保护自己。</em></p></li></ul><p>当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。<strong>我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。</strong></p><p>目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。</p><p><strong>在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。</strong></p><p>纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。<strong>如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。</strong></p><p><img src=\"https://static.tigerbbs.com/fe5a376e68b64e5d82e70cf015a9cc38\" alt=\"\"/><em>Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。</em></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nOpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/74\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/c6c12027b4d84f89b5da0a5de2093ad1);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">经纬创投 </p>\n<p class=\"h-time\">2023-11-23 14:58</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:<strong>董事会到底为什么要突然驱逐Sam Altman?</strong></p><p>最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>发现可能威胁到人类,<strong>这个项目被称为“Q*”(Q-star)</strong>。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。</p><p>董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。</p><p>无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:<strong>谁能被信任,来打开AI这个<a href=\"https://laohu8.com/S/0NQC.UK\">潘多拉</a>魔盒?</strong></p><p>AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。</p><p>所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:<strong>是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。</strong>在这起Open AI的风波背后,这个问题依然值得我们重视。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/045399ec1243d0bdfac1235508850484\" title=\"随着语言模型规模的增长,新能力突然出现;图片来源:Google\" tg-width=\"1079\" tg-height=\"393\"/><span>随着语言模型规模的增长,新能力突然出现;图片来源:Google</span></p><p>“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“<strong>学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。</strong>”</p><p>70多年后,这则恐怖的论断成真了。<strong>大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。</strong><a href=\"https://laohu8.com/S/MSFT\">微软</a>在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?<strong>为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?</strong></p><p>微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……</p><p>搞清楚这些问题其实非常重要,<strong>短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。</strong></p><p><strong>长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>的<a href=\"https://laohu8.com/S/300024\">机器人</a>结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。</strong></p><p>目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,<strong>在文末的注释中会列出这些论文的简介与链接,</strong>供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:</p><p><strong>● 大语言模型令人震惊的理解和推理能力</strong></p><p><strong>● 当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>● 多大的模型规模会出现“涌现”?</strong></p><p><strong>● (附录:本文的论文注释与引用)</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5992222369ad402391979786b9535d32\" title=\"大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models\"/><span>大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</span></p><p><strong>1、大语言模型令人震惊的理解和推理能力</strong></p><p>最近几个月里,硅谷一夜之间出现了几百家应用层的<a href=\"https://laohu8.com/S/V03.SI\">创业公司</a>,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。</p><p>并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。<strong>这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。</strong></p><p>下面我们先列举一些<strong>GPT-4所表现出来的、令人震惊的理解和推理能力:</strong></p><p><img src=\"https://static.tigerbbs.com/3ec8279f39d648168b0617f4af7614c2\" alt=\"\"/>这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。</p><p>给GPT-4提问:你能解释一下作者想表达什么吗?</p><p>GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。</p><p><strong>上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/41e25bcca519475fb6194847629cf74e\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?</p><p>我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。</p><p>我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5849e896a8564c8191ffd628ecb1bdc8\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。</p><p><strong>这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。</strong></p><p><strong>为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。</strong>例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。</p><p>以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?<strong>Google在2022年做了一项重要的基准测试。</strong>研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。</p><p>这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。</p><p>BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。</p><p><strong>还有一些对大语言模型参数规模与性能之间联系的研究,</strong>比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。</p><p>这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。</p><p>还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,<strong>LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。</strong></p><p>目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:<strong>小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。</strong></p><p><strong>2、当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。</strong>在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。</p><p><img src=\"https://static.tigerbbs.com/061be27a983b491ea7f0817e4f9fb34c\" alt=\"\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8121528d65f54ebfad37d20d57a1ecf1\" title=\"近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research\"/><span>近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research</span></p><p><strong>当我们不断加大模型规模时,大语言模型出现了三种表现:</strong></p><p><strong>第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。</strong>从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ebd6d1103dda4ef9acd988b5d2e88f54\" title=\"知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models\"/><span>知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</span></p><p>如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,<strong>各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,</strong>这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。</p><p>另外,<strong>各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。</strong></p><p>世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。</p><p><img src=\"https://static.tigerbbs.com/8405960deda64487903a89e28fdeb607\" alt=\"\"/><em>一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。</em></p><p><em>图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT</em></p><p>更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。</p><p><img src=\"https://static.tigerbbs.com/dca373ac6ea541daa284372693e6bc99\" alt=\"\"/><em>这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。</em></p><p><em>图片来源:Transformer Feed-Forward Layers Are Key-Value Memories</em></p><p><strong>能证明大语言模型是有知识沉淀的,其实非常重要。</strong>OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。</p><p>在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。</p><p><strong>目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。</strong></p><p>另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。</p><p><img src=\"https://static.tigerbbs.com/64869901ee0745e085f571e6f6456cb9\" alt=\"\"/><em>当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models</em></p><p><strong>在上一步的基础上,第二类就是涌现出新能力。</strong>具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。<strong>但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。</strong>经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。</p><p><img src=\"https://static.tigerbbs.com/d3aaae883042412ca8ed4df001c65875\" alt=\"\"/><em>多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</em></p><p><strong>第三种表现是有些情况下,能力效果会呈现U型曲线。</strong>这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。</p><p><img src=\"https://static.tigerbbs.com/ebc9b80391b24fb182f03462fa251be1\" alt=\"\"/><em>图片来源:Google:Inverse scaling can become U-shaped</em></p><p>如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。</p><p>当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。</p><p><strong>3、两种被证明具备“涌现”的典型能力:</strong></p><p><strong>上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。</strong></p><p><strong>第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。</strong></p><p><strong>ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。</strong>这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。</p><p><strong>ICL对大语言模型能否泛化非常重要。</strong>在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。<strong>此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。</strong></p><p><img src=\"https://static.tigerbbs.com/afa4311a3e5846b58b304496187e9e5c\" alt=\"\"/><em>In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?</em></p><p>上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。</p><p>所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。<strong>在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。</strong></p><p>不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。</p><p>还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。</p><p>但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?</p><p>这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。</p><p><strong>第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。</strong></p><p>CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。</p><p><img src=\"https://static.tigerbbs.com/1cfcfc768c364892aee7148d7d0d990c\" alt=\"\"/>图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models</p><p>最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。</p><p>CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,<strong>开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。</strong></p><p>我们在上文分析过,通过<a href=\"https://laohu8.com/S/603138\">海量数据</a>训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。<strong>但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。</strong></p><p>所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。</p><p><img src=\"https://static.tigerbbs.com/8b2479a672f4498d908ab5aca11d58ae\" alt=\"\"/><em>使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p><img src=\"https://static.tigerbbs.com/e8a22dca3ba041bca7f47f1e065de4f0\" alt=\"\"/><em>使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p>如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。</p><p><img src=\"https://static.tigerbbs.com/518a43dc2a9f49f4a4350ad40c21e54b\" alt=\"\"/><em>图片来源:OpenAI:GPT-4 Technical Report</em></p><p><img src=\"https://static.tigerbbs.com/774f97cb97e740e484404bcca764b4fd\" alt=\"\"/><em>一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p><strong>不过目前大模型在复杂推理方面仍然有局限性。</strong>无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。</p><p>比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。</p><p><img src=\"https://static.tigerbbs.com/894714645285430fac5217b5510cbce6\" alt=\"\"/><em>图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4</em></p><p>但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”</p><p>于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。<strong>总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。</strong></p><p><strong>4、多大的模型规模会出现“涌现”?</strong></p><p>我们在上文分析了大模型在哪些任务中出现了涌现现象,<strong>紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?</strong></p><p><strong>根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。</strong></p><p>在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。</p><p><img src=\"https://static.tigerbbs.com/bfdb5cf247c243f281e6ed0b1bc6a651\" alt=\"\"/><em>ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p>而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。</p><p><img src=\"https://static.tigerbbs.com/4bd1c9fa45af4c5f808859a03a62a5c7\" alt=\"\"/>CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</p><p><strong>所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。</strong>例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。</p><p><strong>那么能不能把模型做小?</strong>我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。</p><p><strong>目前小模型的代表之一是DeepMind的Chinchilla,</strong>它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。</p><p>Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。</p><p>于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。</p><p><img src=\"https://static.tigerbbs.com/a507583f14a94d0790c80cc3ac982593\" alt=\"\"/><em>各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language Models</em></p><p><img src=\"https://static.tigerbbs.com/e3ca672bf7ad4cf7a24a55ed565a5999\" alt=\"\"/>Chinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。</p><p>如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。</p><p><img src=\"https://static.tigerbbs.com/b8c2c23a300a4c6db65b6ea1b077aa8b\" alt=\"\"/>图片来源:DeepMind:Training Compute-Optimal Language Models</p><p>在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。</p><p><strong>这里就涉及到了一个核心问题——算力如何分配?</strong>我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。<strong>那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?</strong></p><p>最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。</p><p>OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。<strong>OpenAI的结论是优先增加模型参数,然后才是训练数据量。</strong>假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。</p><p>DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,<strong>DeepMind认为训练数据量也很重要,不亚于模型参数。</strong></p><p>基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。</p><p><strong>另一个“小”模型的例子是Meta推出的LLaMA。</strong>LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。</p><p>从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。</p><p><strong>Meta更进一步的是,把推理成本也纳入进来。</strong>Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。</p><p>所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。</p><p>那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?</p><p><img src=\"https://static.tigerbbs.com/6f3802584c6e43d0a0706d5ecbb28c89\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p><img src=\"https://static.tigerbbs.com/be53cf0e950d45e6a82643a137819d78\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p>上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,<strong>这证明了更小的参数规模,也能产生涌现能力。</strong></p><p>以上这些研究都很有意义,<strong>我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。</strong></p><p><strong>那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。</strong></p><p>一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。</p><p>涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。</p><p>ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。</p><p>微软在GPT-4论文中写道:</p><ul style=\"\"><li><p><em>我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?</em><strong><em>为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?</em></strong></p></li><li><p><em>这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,</em><strong><em>关键方向就是对大语言模型涌现现象的持续研究。</em></strong></p></li><li><p><em>阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,</em><strong><em>这个挑战在今天已经突然变得重要和紧迫。</em></strong></p></li></ul><p>1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:</p><ul style=\"\"><li><p><em>机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;</em></p></li><li><p><em>在不违反第一定律的前提下,机器人必须服从人给予它的命令;</em></p></li><li><p><em>机器人在不违反第一、第二定律的情况下要尽力保护自己。</em></p></li></ul><p>当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。<strong>我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。</strong></p><p>目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。</p><p><strong>在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。</strong></p><p>纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。<strong>如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。</strong></p><p><img src=\"https://static.tigerbbs.com/fe5a376e68b64e5d82e70cf015a9cc38\" alt=\"\"/><em>Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。</em></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/3ffb32e91439706901d0645b2679c546","relate_stocks":{},"source_url":"http://mp.weixin.qq.com/s?__biz=MzA3ODk5OTEzOA==&mid=2962169825&idx=1&sn=3276f4e2b09823f300f7b15d786d6d74&chksm=aac184ec9db60dfa4f484bb6dc70b1a85d83baccea9dd642a64ab4301878ba28d854c4ebc530&scene=0#rd","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2385143611","content_text":"最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:董事会到底为什么要突然驱逐Sam Altman?最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工智能发现可能威胁到人类,这个项目被称为“Q*”(Q-star)。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:谁能被信任,来打开AI这个潘多拉魔盒?AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。在这起Open AI的风波背后,这个问题依然值得我们重视。随着语言模型规模的增长,新能力突然出现;图片来源:Google“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。”70多年后,这则恐怖的论断成真了。大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。微软在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……搞清楚这些问题其实非常重要,短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者特斯拉的机器人结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,在文末的注释中会列出这些论文的简介与链接,供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:● 大语言模型令人震惊的理解和推理能力● 当我们加大模型规模时,出现的三种神奇表现● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)● 多大的模型规模会出现“涌现”?● (附录:本文的论文注释与引用)大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models1、大语言模型令人震惊的理解和推理能力最近几个月里,硅谷一夜之间出现了几百家应用层的创业公司,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。下面我们先列举一些GPT-4所表现出来的、令人震惊的理解和推理能力:这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。给GPT-4提问:你能解释一下作者想表达什么吗?GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?Google在2022年做了一项重要的基准测试。研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。还有一些对大语言模型参数规模与性能之间联系的研究,比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。2、当我们加大模型规模时,出现的三种神奇表现在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research当我们不断加大模型规模时,大语言模型出现了三种表现:第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。另外,各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。图片来源:Transformer Feed-Forward Layers Are Key-Value Memories能证明大语言模型是有知识沉淀的,其实非常重要。OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models在上一步的基础上,第二类就是涌现出新能力。具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models第三种表现是有些情况下,能力效果会呈现U型曲线。这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。图片来源:Google:Inverse scaling can become U-shaped如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。3、两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。ICL对大语言模型能否泛化非常重要。在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。我们在上文分析过,通过海量数据训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。图片来源:OpenAI:GPT-4 Technical Report一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models不过目前大模型在复杂推理方面仍然有局限性。无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。4、多大的模型规模会出现“涌现”?我们在上文分析了大模型在哪些任务中出现了涌现现象,紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。那么能不能把模型做小?我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。目前小模型的代表之一是DeepMind的Chinchilla,它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language ModelsChinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。图片来源:DeepMind:Training Compute-Optimal Language Models在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。这里就涉及到了一个核心问题——算力如何分配?我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。OpenAI的结论是优先增加模型参数,然后才是训练数据量。假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,DeepMind认为训练数据量也很重要,不亚于模型参数。基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。另一个“小”模型的例子是Meta推出的LLaMA。LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个英伟达消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。Meta更进一步的是,把推理成本也纳入进来。Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,这证明了更小的参数规模,也能产生涌现能力。以上这些研究都很有意义,我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。微软在GPT-4论文中写道:我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,关键方向就是对大语言模型涌现现象的持续研究。阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,这个挑战在今天已经突然变得重要和紧迫。1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;在不违反第一定律的前提下,机器人必须服从人给予它的命令;机器人在不违反第一、第二定律的情况下要尽力保护自己。当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。","news_type":1},"isVote":1,"tweetType":1,"viewCount":843,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":227687686516840,"gmtCreate":1696595814208,"gmtModify":1696595815556,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"我去","listText":"我去","text":"我去","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/227687686516840","repostId":"1146127112","repostType":2,"repost":{"id":"1146127112","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1696595433,"share":"https://www.laohu8.com/m/news/1146127112?lang=&edition=full","pubTime":"2023-10-06 20:30","market":"us","language":"zh","title":"盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升","url":"https://stock-news.laohu8.com/highlight/detail?id=1146127112","media":"老虎资讯综合","summary":"美国9月失业率 3.8%,预期3.70%,前值3.80%。","content":"<html><head></head><body><p><strong>美国9月季调后新增非农就业人口(万人): 33.6,为2023年1月以来最大增幅。预期:17,前值:18.7。</strong></p><p><strong>美国9月失业率 3.8%,预期3.70%,前值3.80%。</strong></p><p>美国劳工统计局:7月份非农新增就业人数从15.7万人上修至23.6万人;8月份非农新增就业人数从18.7万人上修至22.7万人。修正后,7月和8月新增就业人数合计较修正前高11.9万人。休闲和酒店行业、政府、卫生保健、专业、科技服务和社会救助的就业岗位有所增加。</p><ul style=\"\"><li><p>9月平均每周工时 34.4小时,预期 34.4小时,前值 34.4小时。</p></li><li><p>9月私营部门就业人口变动 26.3万人,预期 16万人,前值 17.9万人。</p></li><li><p>9月制造业就业人口变动 1.7万人,预期 0.5万人,前值 1.6万人。</p></li><li><p>9月平均每小时工资同比 4.2%,预期 4.3%,前值 4.3%。</p></li><li><p>9月平均每小时工资环比 0.2%,预期 0.3%,前值 0.2%。</p></li></ul><blockquote><p>嘉信理财英国董事总经理Richard Flynn表示,投资者将把今天的就业报告解读为劳动力市场需求仍然健康的信号。就业增长最近一直是经济韧性的关键驱动力,平衡了住房和消费品等领域的疲软。今天公布的强劲数据应该有助于消除对经济衰退的担忧,并为可能走向稳定的经济部门带来乐观情绪。</p></blockquote><p><strong>数据公布后,美股期货短线跳水,纳指期货跌超1%。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ce0f2b79405526d8dd0c64c4e9bb9fa8\" title=\"\" tg-width=\"1099\" tg-height=\"529\"/></p><p><strong>美国5- 30年期美国国债收益率日内涨幅达15个基点,其中30年期国债收益率升至5.04%,为2007年以来的最高水平;10年期国债收益率超过4.88%,为2007年以来最高。美国2年期国债收益率超过10年期国债的幅度为今年内最小。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f2cf1c501527daa495e9bedd9d05bc2a\" title=\"\" tg-width=\"1385\" tg-height=\"671\"/></p><p>黄金期货快速走低。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b0bf2a7850cdd539d6922007428b3e73\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>加息预期</strong></p><p>与美联储政策利率挂钩的合约隐含收益率上升,表明美联储在12月会议上将基准利率上调至5.50%-5.75%区间的可能性接近50%。在就业报告发布之前,交易员认为加息25个基点的可能性约为34%。</p><p>美联储互换市场完全定价美联储降息时间从明年7月推迟到明年9月。</p><p><strong>个股盘前表现</strong></p><p>特斯拉跌3%,此前特斯拉官宣降低了Model 3和Model Y车型在美国的价格。此外,美国证交会起诉马斯克,强迫其就去年收购推特一事作证。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9ce1efe41be0e8d62996c9b62f9d48ef\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>先锋自然资源大涨超10%。消息称埃克森美孚石油接近达成收购先锋自然资源的协议。</p><p>微软跌1.5%,动视暴雪涨0.38%,据报道微软计划在下周结束与动视暴雪的交易。</p><p>台积电涨0.56%。台积电周五公布2023年9月营收为1804.3亿元台币,环比降低4.4%,同比下降13%。</p><p>飞利浦大跌超10%。美国食品和药物管理局(FDA)要求飞利浦对其BiPAP和CPAP呼吸机进行额外测试,以全面评估这些召回设备对用户构成的风险,并警告称该公司对召回产品的分析不充分。飞利浦公司周五表示,该公司一直在与FDA合作进行测试和研究计划,并正在与监管机构就额外测试的细节进行讨论。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/18b8e371402e4bbecd1f509817c76155\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2023-10-06 20:30</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p><strong>美国9月季调后新增非农就业人口(万人): 33.6,为2023年1月以来最大增幅。预期:17,前值:18.7。</strong></p><p><strong>美国9月失业率 3.8%,预期3.70%,前值3.80%。</strong></p><p>美国劳工统计局:7月份非农新增就业人数从15.7万人上修至23.6万人;8月份非农新增就业人数从18.7万人上修至22.7万人。修正后,7月和8月新增就业人数合计较修正前高11.9万人。休闲和酒店行业、政府、卫生保健、专业、科技服务和社会救助的就业岗位有所增加。</p><ul style=\"\"><li><p>9月平均每周工时 34.4小时,预期 34.4小时,前值 34.4小时。</p></li><li><p>9月私营部门就业人口变动 26.3万人,预期 16万人,前值 17.9万人。</p></li><li><p>9月制造业就业人口变动 1.7万人,预期 0.5万人,前值 1.6万人。</p></li><li><p>9月平均每小时工资同比 4.2%,预期 4.3%,前值 4.3%。</p></li><li><p>9月平均每小时工资环比 0.2%,预期 0.3%,前值 0.2%。</p></li></ul><blockquote><p>嘉信理财英国董事总经理Richard Flynn表示,投资者将把今天的就业报告解读为劳动力市场需求仍然健康的信号。就业增长最近一直是经济韧性的关键驱动力,平衡了住房和消费品等领域的疲软。今天公布的强劲数据应该有助于消除对经济衰退的担忧,并为可能走向稳定的经济部门带来乐观情绪。</p></blockquote><p><strong>数据公布后,美股期货短线跳水,纳指期货跌超1%。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ce0f2b79405526d8dd0c64c4e9bb9fa8\" title=\"\" tg-width=\"1099\" tg-height=\"529\"/></p><p><strong>美国5- 30年期美国国债收益率日内涨幅达15个基点,其中30年期国债收益率升至5.04%,为2007年以来的最高水平;10年期国债收益率超过4.88%,为2007年以来最高。美国2年期国债收益率超过10年期国债的幅度为今年内最小。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f2cf1c501527daa495e9bedd9d05bc2a\" title=\"\" tg-width=\"1385\" tg-height=\"671\"/></p><p>黄金期货快速走低。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b0bf2a7850cdd539d6922007428b3e73\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>加息预期</strong></p><p>与美联储政策利率挂钩的合约隐含收益率上升,表明美联储在12月会议上将基准利率上调至5.50%-5.75%区间的可能性接近50%。在就业报告发布之前,交易员认为加息25个基点的可能性约为34%。</p><p>美联储互换市场完全定价美联储降息时间从明年7月推迟到明年9月。</p><p><strong>个股盘前表现</strong></p><p>特斯拉跌3%,此前特斯拉官宣降低了Model 3和Model Y车型在美国的价格。此外,美国证交会起诉马斯克,强迫其就去年收购推特一事作证。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9ce1efe41be0e8d62996c9b62f9d48ef\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>先锋自然资源大涨超10%。消息称埃克森美孚石油接近达成收购先锋自然资源的协议。</p><p>微软跌1.5%,动视暴雪涨0.38%,据报道微软计划在下周结束与动视暴雪的交易。</p><p>台积电涨0.56%。台积电周五公布2023年9月营收为1804.3亿元台币,环比降低4.4%,同比下降13%。</p><p>飞利浦大跌超10%。美国食品和药物管理局(FDA)要求飞利浦对其BiPAP和CPAP呼吸机进行额外测试,以全面评估这些召回设备对用户构成的风险,并警告称该公司对召回产品的分析不充分。飞利浦公司周五表示,该公司一直在与FDA合作进行测试和研究计划,并正在与监管机构就额外测试的细节进行讨论。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/18b8e371402e4bbecd1f509817c76155\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/ed4ee39e6b0f45214393093d70ba81a8","relate_stocks":{".DJI":"道琼斯"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1146127112","content_text":"美国9月季调后新增非农就业人口(万人): 33.6,为2023年1月以来最大增幅。预期:17,前值:18.7。美国9月失业率 3.8%,预期3.70%,前值3.80%。美国劳工统计局:7月份非农新增就业人数从15.7万人上修至23.6万人;8月份非农新增就业人数从18.7万人上修至22.7万人。修正后,7月和8月新增就业人数合计较修正前高11.9万人。休闲和酒店行业、政府、卫生保健、专业、科技服务和社会救助的就业岗位有所增加。9月平均每周工时 34.4小时,预期 34.4小时,前值 34.4小时。9月私营部门就业人口变动 26.3万人,预期 16万人,前值 17.9万人。9月制造业就业人口变动 1.7万人,预期 0.5万人,前值 1.6万人。9月平均每小时工资同比 4.2%,预期 4.3%,前值 4.3%。9月平均每小时工资环比 0.2%,预期 0.3%,前值 0.2%。嘉信理财英国董事总经理Richard Flynn表示,投资者将把今天的就业报告解读为劳动力市场需求仍然健康的信号。就业增长最近一直是经济韧性的关键驱动力,平衡了住房和消费品等领域的疲软。今天公布的强劲数据应该有助于消除对经济衰退的担忧,并为可能走向稳定的经济部门带来乐观情绪。数据公布后,美股期货短线跳水,纳指期货跌超1%。美国5- 30年期美国国债收益率日内涨幅达15个基点,其中30年期国债收益率升至5.04%,为2007年以来的最高水平;10年期国债收益率超过4.88%,为2007年以来最高。美国2年期国债收益率超过10年期国债的幅度为今年内最小。黄金期货快速走低。加息预期与美联储政策利率挂钩的合约隐含收益率上升,表明美联储在12月会议上将基准利率上调至5.50%-5.75%区间的可能性接近50%。在就业报告发布之前,交易员认为加息25个基点的可能性约为34%。美联储互换市场完全定价美联储降息时间从明年7月推迟到明年9月。个股盘前表现特斯拉跌3%,此前特斯拉官宣降低了Model 3和Model Y车型在美国的价格。此外,美国证交会起诉马斯克,强迫其就去年收购推特一事作证。先锋自然资源大涨超10%。消息称埃克森美孚石油接近达成收购先锋自然资源的协议。微软跌1.5%,动视暴雪涨0.38%,据报道微软计划在下周结束与动视暴雪的交易。台积电涨0.56%。台积电周五公布2023年9月营收为1804.3亿元台币,环比降低4.4%,同比下降13%。飞利浦大跌超10%。美国食品和药物管理局(FDA)要求飞利浦对其BiPAP和CPAP呼吸机进行额外测试,以全面评估这些召回设备对用户构成的风险,并警告称该公司对召回产品的分析不充分。飞利浦公司周五表示,该公司一直在与FDA合作进行测试和研究计划,并正在与监管机构就额外测试的细节进行讨论。","news_type":1},"isVote":1,"tweetType":1,"viewCount":660,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":218945255915776,"gmtCreate":1694477555099,"gmtModify":1694477556408,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/218945255915776","repostId":"218775976120560","repostType":1,"repost":{"id":218775976120560,"gmtCreate":1694435447518,"gmtModify":1694435473469,"author":{"id":"3527667608392900","authorId":"3527667608392900","name":"芯潮","avatar":"https://static.tigerbbs.com/feac0f5f370e5db4646bf8b1ef22253f","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3527667608392900","authorIdStr":"3527667608392900"},"themes":[],"title":"Arm的缺点!","htmlText":"在之前的文章中,我探讨了Arm的财务状况,根据历史估值判断,Arm留给二级市场的空间并不大。《<a href=\"https://laohu8.com/TW/217372487020616\" target=\"_blank\">ARM贵不贵?上市首日能涨多少?</a>》虽然估值超高,但Arm依然得到资金的疯抢,有传言称,公司已获6倍超额认购,IPO定价或超过上限。夸赞Arm的文章有很多,赘述毫无新意,这篇文章聊聊Arm的缺点。Arm在智能手机芯片架构方面处于垄断地位,无论是iOS还是安卓,都是Arm的拥簇,而且在可预见的未来,这种垄断地位难以撼动。这难免让人想起EUV光刻机霸主阿斯麦,正是得益于这种绝对垄断地位,公司的市盈率常年处于高位:虽然都是垄断,但细微之处还是有差别的,比如客户关系。阿斯麦和客户之间的关系非常融洽,甚至光刻机的研发离不开客户的配合,比如上世纪90年代,光刻机的光源波长被卡死在193nm,成为了摆在全产业面前的一道难关。此时,台积电的工程师林本坚提出在透镜和硅片之间加一层水,将原有的193nm激光经过折射,直接越过157nm的天堑,降低到132nm!阿斯麦采用了这个建议,与台积电合作研发出浸润式光刻机,一跃成为光刻机老大。但是,Arm与客户的关系并不融洽,主要是其商业模式属于专利授权,Arm的定价及约束非常严苛,比如今年4月,Arm改变了收费模式。此前,客户支付技术授权费来购买Arm的IP授权,价格取决于授权技术的复杂程度,并且Arm还会根据芯片厂商的处理器价格抽取一定的版税,版权按照单个芯片售价的1%~2%来计算。未来,ARM计划不再根据“芯片价值”向厂商收取使用其设计的专利费,而是根据“终端价值”收费,希望以此大幅提振专利收入。很多终端厂商不由怒批:“Arm是在明目张胆的和客户抢利润,是在吸合作伙伴的血,简直就是蛀虫行径!”专利霸权也引发了Arm与大客户高","listText":"在之前的文章中,我探讨了Arm的财务状况,根据历史估值判断,Arm留给二级市场的空间并不大。《<a href=\"https://laohu8.com/TW/217372487020616\" target=\"_blank\">ARM贵不贵?上市首日能涨多少?</a>》虽然估值超高,但Arm依然得到资金的疯抢,有传言称,公司已获6倍超额认购,IPO定价或超过上限。夸赞Arm的文章有很多,赘述毫无新意,这篇文章聊聊Arm的缺点。Arm在智能手机芯片架构方面处于垄断地位,无论是iOS还是安卓,都是Arm的拥簇,而且在可预见的未来,这种垄断地位难以撼动。这难免让人想起EUV光刻机霸主阿斯麦,正是得益于这种绝对垄断地位,公司的市盈率常年处于高位:虽然都是垄断,但细微之处还是有差别的,比如客户关系。阿斯麦和客户之间的关系非常融洽,甚至光刻机的研发离不开客户的配合,比如上世纪90年代,光刻机的光源波长被卡死在193nm,成为了摆在全产业面前的一道难关。此时,台积电的工程师林本坚提出在透镜和硅片之间加一层水,将原有的193nm激光经过折射,直接越过157nm的天堑,降低到132nm!阿斯麦采用了这个建议,与台积电合作研发出浸润式光刻机,一跃成为光刻机老大。但是,Arm与客户的关系并不融洽,主要是其商业模式属于专利授权,Arm的定价及约束非常严苛,比如今年4月,Arm改变了收费模式。此前,客户支付技术授权费来购买Arm的IP授权,价格取决于授权技术的复杂程度,并且Arm还会根据芯片厂商的处理器价格抽取一定的版税,版权按照单个芯片售价的1%~2%来计算。未来,ARM计划不再根据“芯片价值”向厂商收取使用其设计的专利费,而是根据“终端价值”收费,希望以此大幅提振专利收入。很多终端厂商不由怒批:“Arm是在明目张胆的和客户抢利润,是在吸合作伙伴的血,简直就是蛀虫行径!”专利霸权也引发了Arm与大客户高","text":"在之前的文章中,我探讨了Arm的财务状况,根据历史估值判断,Arm留给二级市场的空间并不大。《ARM贵不贵?上市首日能涨多少?》虽然估值超高,但Arm依然得到资金的疯抢,有传言称,公司已获6倍超额认购,IPO定价或超过上限。夸赞Arm的文章有很多,赘述毫无新意,这篇文章聊聊Arm的缺点。Arm在智能手机芯片架构方面处于垄断地位,无论是iOS还是安卓,都是Arm的拥簇,而且在可预见的未来,这种垄断地位难以撼动。这难免让人想起EUV光刻机霸主阿斯麦,正是得益于这种绝对垄断地位,公司的市盈率常年处于高位:虽然都是垄断,但细微之处还是有差别的,比如客户关系。阿斯麦和客户之间的关系非常融洽,甚至光刻机的研发离不开客户的配合,比如上世纪90年代,光刻机的光源波长被卡死在193nm,成为了摆在全产业面前的一道难关。此时,台积电的工程师林本坚提出在透镜和硅片之间加一层水,将原有的193nm激光经过折射,直接越过157nm的天堑,降低到132nm!阿斯麦采用了这个建议,与台积电合作研发出浸润式光刻机,一跃成为光刻机老大。但是,Arm与客户的关系并不融洽,主要是其商业模式属于专利授权,Arm的定价及约束非常严苛,比如今年4月,Arm改变了收费模式。此前,客户支付技术授权费来购买Arm的IP授权,价格取决于授权技术的复杂程度,并且Arm还会根据芯片厂商的处理器价格抽取一定的版税,版权按照单个芯片售价的1%~2%来计算。未来,ARM计划不再根据“芯片价值”向厂商收取使用其设计的专利费,而是根据“终端价值”收费,希望以此大幅提振专利收入。很多终端厂商不由怒批:“Arm是在明目张胆的和客户抢利润,是在吸合作伙伴的血,简直就是蛀虫行径!”专利霸权也引发了Arm与大客户高","images":[{"img":"https://static.tigerbbs.com/de47c888a0991f182fe0adbbb894d716","width":"1077","height":"318"},{"img":"https://static.tigerbbs.com/75f2a8fe3f795f232b2aae2af4342b75","width":"1442","height":"614"},{"img":"https://static.tigerbbs.com/806d38b62a2c0f46ac2155440f375264","width":"908","height":"629"}],"top":1,"highlighted":2,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/218775976120560","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":5,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":936,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":201771480436736,"gmtCreate":1690268037270,"gmtModify":1690268038560,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/FUT/NQmain\">$NQ100指数主连 2309(NQmain)$ </a><v-v data-views=\"1\"></v-v>","listText":"<a href=\"https://laohu8.com/FUT/NQmain\">$NQ100指数主连 2309(NQmain)$ </a><v-v data-views=\"1\"></v-v>","text":"$NQ100指数主连 2309(NQmain)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/201771480436736","isVote":1,"tweetType":1,"viewCount":24,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":625660904,"gmtCreate":1676441447808,"gmtModify":1676441448530,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","listText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","text":"$恒生科技指数(HSTECH)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/625660904","isVote":1,"tweetType":1,"viewCount":46,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":625913952,"gmtCreate":1676012152877,"gmtModify":1676012153912,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","listText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","text":"$恒生科技指数(HSTECH)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/625913952","isVote":1,"tweetType":1,"viewCount":133,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":629139310,"gmtCreate":1670325245430,"gmtModify":1670325247104,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/629139310","repostId":"1168253231","repostType":2,"isVote":1,"tweetType":1,"viewCount":1081,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":620572002,"gmtCreate":1669878441906,"gmtModify":1669878443630,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/620572002","repostId":"828353131","repostType":1,"repost":{"id":828353131,"gmtCreate":1633849871673,"gmtModify":1633849871673,"author":{"id":"3549029666728994","authorId":"3549029666728994","name":"蕴翔财经","avatar":"https://static.tigerbbs.com/eedeb6c7dae5914a1e7e9bbe4abc51ac","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3549029666728994","authorIdStr":"3549029666728994"},"themes":[],"title":"Whatfix完成对印度学习管理平台Nittio Learn的收购","htmlText":"据外媒报道,印度SaaS初创公司Whatfix已经完成对当地学习管理平台Nittio Learn的收购,但具体收购金额并未透露。Whatfix由Vara Kumar和Khadim Batti创立于2014年,主要通过其SaaS产品为客户提供数字化部署解决方案(DAS),帮助企业提升员工入职、培训及自助服务等方面的效率。在悉尼、伦敦、班加罗尔、圣何塞和旧金山等地均有办事处。Nittio Learn则由Aravindan Rs、Gagandeep Singh Josan和Ritu Josan于2013年创立,主要是为公司提供员工培训服务,丰富员工技能,从而提高其工作效率。Whatfix曾在今年6月进行一笔规模为9000万美元的融资,由软银愿景基金2号领投,红杉资本(印度)和Eight Roads Ventures等参投,助其估值实现400%的增长,达到6亿美元。该公司联合创始人兼CEO Khadim Batti表示,收购和合并是公司策略的一个重要组成部分,已经留出预算做收购,并将组建专门的收购团队。而通过此次收购,Whatfix能提高其培训能力,创造出更多个性化,互动性强且适应用户需求的内容。此外,Nittoio Learn的创始人Aravindan Rs、Gagandeep Singh Josan和团队都将加入Whatfix。","listText":"据外媒报道,印度SaaS初创公司Whatfix已经完成对当地学习管理平台Nittio Learn的收购,但具体收购金额并未透露。Whatfix由Vara Kumar和Khadim Batti创立于2014年,主要通过其SaaS产品为客户提供数字化部署解决方案(DAS),帮助企业提升员工入职、培训及自助服务等方面的效率。在悉尼、伦敦、班加罗尔、圣何塞和旧金山等地均有办事处。Nittio Learn则由Aravindan Rs、Gagandeep Singh Josan和Ritu Josan于2013年创立,主要是为公司提供员工培训服务,丰富员工技能,从而提高其工作效率。Whatfix曾在今年6月进行一笔规模为9000万美元的融资,由软银愿景基金2号领投,红杉资本(印度)和Eight Roads Ventures等参投,助其估值实现400%的增长,达到6亿美元。该公司联合创始人兼CEO Khadim Batti表示,收购和合并是公司策略的一个重要组成部分,已经留出预算做收购,并将组建专门的收购团队。而通过此次收购,Whatfix能提高其培训能力,创造出更多个性化,互动性强且适应用户需求的内容。此外,Nittoio Learn的创始人Aravindan Rs、Gagandeep Singh Josan和团队都将加入Whatfix。","text":"据外媒报道,印度SaaS初创公司Whatfix已经完成对当地学习管理平台Nittio Learn的收购,但具体收购金额并未透露。Whatfix由Vara Kumar和Khadim Batti创立于2014年,主要通过其SaaS产品为客户提供数字化部署解决方案(DAS),帮助企业提升员工入职、培训及自助服务等方面的效率。在悉尼、伦敦、班加罗尔、圣何塞和旧金山等地均有办事处。Nittio Learn则由Aravindan Rs、Gagandeep Singh Josan和Ritu Josan于2013年创立,主要是为公司提供员工培训服务,丰富员工技能,从而提高其工作效率。Whatfix曾在今年6月进行一笔规模为9000万美元的融资,由软银愿景基金2号领投,红杉资本(印度)和Eight Roads Ventures等参投,助其估值实现400%的增长,达到6亿美元。该公司联合创始人兼CEO Khadim Batti表示,收购和合并是公司策略的一个重要组成部分,已经留出预算做收购,并将组建专门的收购团队。而通过此次收购,Whatfix能提高其培训能力,创造出更多个性化,互动性强且适应用户需求的内容。此外,Nittoio Learn的创始人Aravindan Rs、Gagandeep Singh Josan和团队都将加入Whatfix。","images":[{"img":"https://static.tigerbbs.com/eeda55a83712c10a955de8e6ef344c8d"}],"top":1,"highlighted":1,"essential":1,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/828353131","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":1523,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":620543211,"gmtCreate":1669870805933,"gmtModify":1669870808875,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/620543211","repostId":"1132114091","repostType":2,"repost":{"id":"1132114091","pubTimestamp":1669865458,"share":"https://www.laohu8.com/m/news/1132114091?lang=&edition=full","pubTime":"2022-12-01 11:30","market":"sh","language":"zh","title":"720倍上市回报,老虎红杉软银都去了这里","url":"https://stock-news.laohu8.com/highlight/detail?id=1132114091","media":"投中网","summary":"高回报的驱动下,越来越多的投资人投来目光。","content":"<html><head></head><body><blockquote><b>高回报的驱动下,越来越多的投资人投来目光。</b></blockquote><p>最近接连发现的几个事情,引起了我对印度SaaS市场的关注。</p><p>1、作为新兴的SaaS市场,红杉、老虎、软银等全球顶级投资机构扎堆去投资寻宝,而不同于在国内过于关注早期项目的打法,在该市场,早期、中后期,他们都有下注与布局。</p><p>2、不久前,印度本土的一家SaaS头部玩家宣布完成了年度收入破十亿美元的消息。</p><p>3、去年,该市场赴美上市的SaaS第一股,为早期投资人带来了高达720倍的回报。</p><p>虽然只有短短的三个信息点,但却拼凑出了该SaaS市场最吸引人的特征:新风向标、市场巨大、回报率高。</p><p>甚至有报告指出,不出十年,印度将成为全球第二大SaaS市场占有率的国家。印度的SaaS缘何能够获得健康生长,并持续得到全球顶级资本的关注?而这对于当前的中国SaaS厂商们又有何借鉴之处?</p><p><b>疯长</b></p><p>没人能否认,印度SaaS市场正在以极快的速度增长,并与全球参与者争夺这个行业的资金。</p><p>顺着这条线索,也让我发现了印度SaaS市场的火热与疯狂。这里不仅有数十家ARR(年经常性收入)过1亿美元的独角兽公司,这在国内SaaS厂商眼中被看做是一大难题,同样,印度企业对SaaS的接受能力和消费能力也让人刮目相看。</p><p>在市场潜力的维度上,有报告指出,印度SaaS市场预计到2025年将达到220-250亿美元规模,占全球SaaS的7-10%。</p><p>先来看一组数据。</p><p>今年,印度SaaS市场逆势增长,整体收入增加了20%,同时,SaaS企业数量也从2018年的1000家翻倍至今年的2000家。</p><p>如果说企业数量的增长不能完全体现这个行业的成长性,那么独角兽数量则可以作为一个注解。</p><p>在过去的三年半里,印度的SaaS独角兽数量从仅有的两家企业增长到20家。仅在2022年的前四个月,印度就有四个新名字被添加到这个名单中。</p><p>当然,独角兽的长成离不开资本的助力。此前,我在《VC不爱SaaS了?》中曾提到印度作为SaaS崛起的新兴地,投融资市场也十分活跃。最新数据显示,今年印度SaaS的融资金额将上升62.5%达到65亿美元。</p><p>其实,有报道称印度SaaS元年是2010年,比国内还早上几年。但直到2019年,印度SaaS初创企业获得资本市场的全面加注。</p><p>除了印度本土的投资机构,像老虎、红杉、软银这样的大佬也加入战局,值得一提的是,老虎格外看中印度的SaaS市场,甚至他们在印度选择新标的时,只将目光投向SaaS,这一年还出现了只专注于SaaS投资的基金。</p><p>资本的热度在2021年达到了一个小高潮,该年度印度SaaS公司融资金额打到了近48亿美元,比2020年增长了近3倍,比2018年增长了惊人的6倍。即使在今年,据投中网不完全统计,印度SaaS行业的融资也高达数十起,算是全球前三活跃的市场之一。</p><p>同样,我们前文也提到了印度SaaS厂商为投资者带来的高额回报。可以看到,在这种高回报的驱动下,越来越多的投资人将目光投向了印度市场。</p><p><b>新宠</b></p><p>那么,什么样的SaaS厂商在印度市场最吸引投资人呢?分析来看,我认为有三点,做全球化市场,以中小企业为目标客户,产品丰富且客源稳定。</p><p>我们仍以Zoho为例,最新数据显示,其用户量达到7000多万,遍及180多个国家和地区,这也勾勒Zoho自己的目标用户,即主要面向中小微企业。这样的定位也使得Zoho在过去的几年里,保持以每年超过40%的营收增长速度在发展。</p><p>同样,近期我们也关注到,总部位于海得拉巴的HR SaaS厂商Keka完成了5700万美元的A轮融资,这刷新了印度SaaS领域同轮次的记录。在没有接受外部融资前,Keka的成绩也比较瞩目,比如在2020年其实现了7倍的销售额增长,到2021年底,客户超过5500家。</p><p>再比如,刚刚完成1.5亿美元新一轮融资的印度企业数字化管理服务提供商Icertis,这是一家做合同智能平台的公司,数据显示, Icertis管理的合同数超过1000多万,覆盖40多种语言和90多个国家/地区,这些合同价值超过1万亿美元。</p><p>分析人士称,印度SaaS初创企业迎合了小型企业和云原生初创企业的庞大市场。如今印度中小型企业正在探索云,以提高业务敏捷性并构建能力来执行那些对于传统技术而言耗时且成本高昂的任务。</p><p>据数据估计,到2025年,印度SMB行业将为横向SaaS解决方案提供87亿美元的市场机会——比2020年的估计市场增长52%。零售、制造和教育预计将占总量的近一半市场机会。财务、会计和支付系统是中小型企业中更受欢迎的SaaS 解决方案,同时越来越多地采用CRM、ERP和以营销为中心的解决方案。</p><p>当然,纵使印度中小企业市场潜力巨大,但支撑起多家公司的高速增长,甚至助力Zoho营收突破10亿美元也是有相当难度的。</p><p>在这高额的营收背后,海外市场也是一个不可忽视的重要组成。</p><p>我们发现很多印度本土市场SaaS公司会将全球化,将海外市场作为重要的战略布局。这样一来,不仅增加了营收的多元化和稳定性,也提高了产品的丰富度以及易用性。</p><p>也正是因为印度SaaS厂商抓住了全球不断增长的成熟企业群体。故有报告称,印度SaaS公司有望在2025年实现300亿美元的收入,占据全球SaaS市场8%至9%的份额。</p><p>此外,印度SaaS之所以能够在当下还能获得融资的原因还在于,印度SaaS的早期融资企业是有一定的收入和客源的,像是FusionCharts、Kayako、Zoho和Wingify等这些先锋,这与中美市场三五个人的SaaS创业团队就出来融资是完全不同的。</p><p>稳定收入的支持,也从某种程度上拉高了印度SaaS公司的PS,一些印度公司的表现甚至超过了美国同行。</p><p>总的来看,2019年以来,客户需求的爆发,资本的加持,海外市场的拓展,让印度SaaS市场得到了迅速成长,而这一趋势也将继续延续。</p><p><b>答案</b></p><p>飘风不终朝,骤雨不终日。</p><p>作为全球市场上重要的技术革命,SaaS在中国的路还将继续走下去。而通过对印度SaaS市场的了解,我发现中印市场其实有些共同之处,或者说,从印度的经验,我们可以发现一些SaaS行业的通解。</p><p><b>首先,有投资人指出,风投兴趣的增加在于越来越多的印度SaaS企业取得成功并在全球扩张的结果。</b></p><p>在他看来,对SaaS公司有利的是它们能够轻松服务全球市场,即需要最少的现场交付或基础设施投资才能在任何其他国家/地区扩展。</p><p>而现在,国内SaaS大部分企业将业务重点布局放在了国内市场,比如在中小企业SaaS市场活力下降时,多数选择了进入政企大客户市场。</p><p>在这里,我们不评判目标客户的选择,只是想提个醒,或许在国内的中小企业领域和海外市场,SaaS厂商还大有可为,当然现在越来越多的厂商也开始探索和布局全球市场,目前来看,这是一件难而正确的事情。</p><p><b>其次,国内SaaS也曾经历过中小企业需求的爆发,这跟当前印度数字经济的扩张、更多工作空间进入混合模式,如出一辙。</b></p><p>但不同的是,当时的受益者并非只有SaaS创业厂商,而是更多的被钉钉、企微、飞书这样的平台型厂商获益。也正是如此,直到现在,这些平台型厂商依旧能够有比较健康的现金流和订阅量。</p><p>如果无法依靠自己单打独斗,那么利用好平台厂商来丰富自己的产品,从而吸引更多的客户也不失为一个选择。</p><p>知情人士透露,通过加入国内的一些平台上,有的SaaS企业在今年获得了超50%的增长,他们分布在低代码、HR等赛道中。</p><p><b>第三,说到底,国内的SaaS厂商比印度厂商走的要快一步。</b></p><p>这一步不是指国内SaaS的营收更好,现金流更稳定,而是说国内已经过了资本最热的阶段。早在2019年,国内资本对SaaS的追逐就已经到达了最高峰。</p><p>当前,在国内SaaS市场,不是投资人不再看好这个行业,只是不再盲目地为那些现金流不佳,收入做不上去的企业投资。毕竟,SaaS对投资人的吸引力就在于在强大的基本面之上,具有可预测的收入。</p><p>那么,在资本冷静谨慎的阶段,国内企业则可以像印度那些白手起家的SaaS厂商一样,做一些产品和确定性的增长,量力而行。</p><p>在这个大浪淘沙的关键节点,谁能提高增长率和利润率,加大收入粘性,才能获得下轮游戏的入场券。</p></body></html>","source":"tzw","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>720倍上市回报,老虎红杉软银都去了这里</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n720倍上市回报,老虎红杉软银都去了这里\n</h2>\n\n<h4 class=\"meta\">\n\n\n2022-12-01 11:30 北京时间 <a href=https://mp.weixin.qq.com/s/-rbXQ6t4UmsDGrJI2j4mXw><strong>投中网</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>高回报的驱动下,越来越多的投资人投来目光。最近接连发现的几个事情,引起了我对印度SaaS市场的关注。1、作为新兴的SaaS市场,红杉、老虎、软银等全球顶级投资机构扎堆去投资寻宝,而不同于在国内过于关注早期项目的打法,在该市场,早期、中后期,他们都有下注与布局。2、不久前,印度本土的一家SaaS头部玩家宣布完成了年度收入破十亿美元的消息。3、去年,该市场赴美上市的SaaS第一股,为早期投资人带来了...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/-rbXQ6t4UmsDGrJI2j4mXw\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/433eb422d90e0dc75fe30f5a6ad16a3f","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/-rbXQ6t4UmsDGrJI2j4mXw","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1132114091","content_text":"高回报的驱动下,越来越多的投资人投来目光。最近接连发现的几个事情,引起了我对印度SaaS市场的关注。1、作为新兴的SaaS市场,红杉、老虎、软银等全球顶级投资机构扎堆去投资寻宝,而不同于在国内过于关注早期项目的打法,在该市场,早期、中后期,他们都有下注与布局。2、不久前,印度本土的一家SaaS头部玩家宣布完成了年度收入破十亿美元的消息。3、去年,该市场赴美上市的SaaS第一股,为早期投资人带来了高达720倍的回报。虽然只有短短的三个信息点,但却拼凑出了该SaaS市场最吸引人的特征:新风向标、市场巨大、回报率高。甚至有报告指出,不出十年,印度将成为全球第二大SaaS市场占有率的国家。印度的SaaS缘何能够获得健康生长,并持续得到全球顶级资本的关注?而这对于当前的中国SaaS厂商们又有何借鉴之处?疯长没人能否认,印度SaaS市场正在以极快的速度增长,并与全球参与者争夺这个行业的资金。顺着这条线索,也让我发现了印度SaaS市场的火热与疯狂。这里不仅有数十家ARR(年经常性收入)过1亿美元的独角兽公司,这在国内SaaS厂商眼中被看做是一大难题,同样,印度企业对SaaS的接受能力和消费能力也让人刮目相看。在市场潜力的维度上,有报告指出,印度SaaS市场预计到2025年将达到220-250亿美元规模,占全球SaaS的7-10%。先来看一组数据。今年,印度SaaS市场逆势增长,整体收入增加了20%,同时,SaaS企业数量也从2018年的1000家翻倍至今年的2000家。如果说企业数量的增长不能完全体现这个行业的成长性,那么独角兽数量则可以作为一个注解。在过去的三年半里,印度的SaaS独角兽数量从仅有的两家企业增长到20家。仅在2022年的前四个月,印度就有四个新名字被添加到这个名单中。当然,独角兽的长成离不开资本的助力。此前,我在《VC不爱SaaS了?》中曾提到印度作为SaaS崛起的新兴地,投融资市场也十分活跃。最新数据显示,今年印度SaaS的融资金额将上升62.5%达到65亿美元。其实,有报道称印度SaaS元年是2010年,比国内还早上几年。但直到2019年,印度SaaS初创企业获得资本市场的全面加注。除了印度本土的投资机构,像老虎、红杉、软银这样的大佬也加入战局,值得一提的是,老虎格外看中印度的SaaS市场,甚至他们在印度选择新标的时,只将目光投向SaaS,这一年还出现了只专注于SaaS投资的基金。资本的热度在2021年达到了一个小高潮,该年度印度SaaS公司融资金额打到了近48亿美元,比2020年增长了近3倍,比2018年增长了惊人的6倍。即使在今年,据投中网不完全统计,印度SaaS行业的融资也高达数十起,算是全球前三活跃的市场之一。同样,我们前文也提到了印度SaaS厂商为投资者带来的高额回报。可以看到,在这种高回报的驱动下,越来越多的投资人将目光投向了印度市场。新宠那么,什么样的SaaS厂商在印度市场最吸引投资人呢?分析来看,我认为有三点,做全球化市场,以中小企业为目标客户,产品丰富且客源稳定。我们仍以Zoho为例,最新数据显示,其用户量达到7000多万,遍及180多个国家和地区,这也勾勒Zoho自己的目标用户,即主要面向中小微企业。这样的定位也使得Zoho在过去的几年里,保持以每年超过40%的营收增长速度在发展。同样,近期我们也关注到,总部位于海得拉巴的HR SaaS厂商Keka完成了5700万美元的A轮融资,这刷新了印度SaaS领域同轮次的记录。在没有接受外部融资前,Keka的成绩也比较瞩目,比如在2020年其实现了7倍的销售额增长,到2021年底,客户超过5500家。再比如,刚刚完成1.5亿美元新一轮融资的印度企业数字化管理服务提供商Icertis,这是一家做合同智能平台的公司,数据显示, Icertis管理的合同数超过1000多万,覆盖40多种语言和90多个国家/地区,这些合同价值超过1万亿美元。分析人士称,印度SaaS初创企业迎合了小型企业和云原生初创企业的庞大市场。如今印度中小型企业正在探索云,以提高业务敏捷性并构建能力来执行那些对于传统技术而言耗时且成本高昂的任务。据数据估计,到2025年,印度SMB行业将为横向SaaS解决方案提供87亿美元的市场机会——比2020年的估计市场增长52%。零售、制造和教育预计将占总量的近一半市场机会。财务、会计和支付系统是中小型企业中更受欢迎的SaaS 解决方案,同时越来越多地采用CRM、ERP和以营销为中心的解决方案。当然,纵使印度中小企业市场潜力巨大,但支撑起多家公司的高速增长,甚至助力Zoho营收突破10亿美元也是有相当难度的。在这高额的营收背后,海外市场也是一个不可忽视的重要组成。我们发现很多印度本土市场SaaS公司会将全球化,将海外市场作为重要的战略布局。这样一来,不仅增加了营收的多元化和稳定性,也提高了产品的丰富度以及易用性。也正是因为印度SaaS厂商抓住了全球不断增长的成熟企业群体。故有报告称,印度SaaS公司有望在2025年实现300亿美元的收入,占据全球SaaS市场8%至9%的份额。此外,印度SaaS之所以能够在当下还能获得融资的原因还在于,印度SaaS的早期融资企业是有一定的收入和客源的,像是FusionCharts、Kayako、Zoho和Wingify等这些先锋,这与中美市场三五个人的SaaS创业团队就出来融资是完全不同的。稳定收入的支持,也从某种程度上拉高了印度SaaS公司的PS,一些印度公司的表现甚至超过了美国同行。总的来看,2019年以来,客户需求的爆发,资本的加持,海外市场的拓展,让印度SaaS市场得到了迅速成长,而这一趋势也将继续延续。答案飘风不终朝,骤雨不终日。作为全球市场上重要的技术革命,SaaS在中国的路还将继续走下去。而通过对印度SaaS市场的了解,我发现中印市场其实有些共同之处,或者说,从印度的经验,我们可以发现一些SaaS行业的通解。首先,有投资人指出,风投兴趣的增加在于越来越多的印度SaaS企业取得成功并在全球扩张的结果。在他看来,对SaaS公司有利的是它们能够轻松服务全球市场,即需要最少的现场交付或基础设施投资才能在任何其他国家/地区扩展。而现在,国内SaaS大部分企业将业务重点布局放在了国内市场,比如在中小企业SaaS市场活力下降时,多数选择了进入政企大客户市场。在这里,我们不评判目标客户的选择,只是想提个醒,或许在国内的中小企业领域和海外市场,SaaS厂商还大有可为,当然现在越来越多的厂商也开始探索和布局全球市场,目前来看,这是一件难而正确的事情。其次,国内SaaS也曾经历过中小企业需求的爆发,这跟当前印度数字经济的扩张、更多工作空间进入混合模式,如出一辙。但不同的是,当时的受益者并非只有SaaS创业厂商,而是更多的被钉钉、企微、飞书这样的平台型厂商获益。也正是如此,直到现在,这些平台型厂商依旧能够有比较健康的现金流和订阅量。如果无法依靠自己单打独斗,那么利用好平台厂商来丰富自己的产品,从而吸引更多的客户也不失为一个选择。知情人士透露,通过加入国内的一些平台上,有的SaaS企业在今年获得了超50%的增长,他们分布在低代码、HR等赛道中。第三,说到底,国内的SaaS厂商比印度厂商走的要快一步。这一步不是指国内SaaS的营收更好,现金流更稳定,而是说国内已经过了资本最热的阶段。早在2019年,国内资本对SaaS的追逐就已经到达了最高峰。当前,在国内SaaS市场,不是投资人不再看好这个行业,只是不再盲目地为那些现金流不佳,收入做不上去的企业投资。毕竟,SaaS对投资人的吸引力就在于在强大的基本面之上,具有可预测的收入。那么,在资本冷静谨慎的阶段,国内企业则可以像印度那些白手起家的SaaS厂商一样,做一些产品和确定性的增长,量力而行。在这个大浪淘沙的关键节点,谁能提高增长率和利润率,加大收入粘性,才能获得下轮游戏的入场券。","news_type":1},"isVote":1,"tweetType":1,"viewCount":987,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":668389612,"gmtCreate":1664425890036,"gmtModify":1664425891168,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3576073448098987","authorIdStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/668389612","repostId":"669074694","repostType":1,"repost":{"id":669074694,"gmtCreate":1662015111990,"gmtModify":1662026548162,"author":{"id":"3527667650848029","authorId":"3527667650848029","name":"锐评","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3527667650848029","authorIdStr":"3527667650848029"},"themes":[],"title":"巴菲特减持的那些股票,股价是否从此一蹶不振?","htmlText":"巴菲特开始减持比亚迪,不仅引起了资本市场激烈震荡和讨论,也引起了美国媒体的关注。但是看了一下,讨论的思考框架无外乎就是“不用过度解读,公司本身经营没有问题”这个大方向,卖方报告也多从比亚迪本身的业绩入手,认为公司长期看好。先多说一句,中西方文化在辩论的基础上存在巨大差异,中方的文化基础是“防守”,从自己的角度去证明一件事;而西方的文化基础是“进攻”(或者说“侵略”),要想证明自己清白最好的方法就是证明对手错误。我今天就从西方的角度去讨论这个问题——都说巴菲特是股神,那么他减持的股票是不是股价都从此一蹶不振?根据2013年以来Berkshire Hathaway的13F持仓显示,巴菲特前5大重仓一共有过10个股票,分别是WFC, KO, AXP, IBM, PG, WMT, KHC, AAPL, BAC, CVX。1,<a href=\"https://laohu8.com/S/WFC\">$富国银行(WFC)$</a> 巴菲特钟爱银行股,而富国银行曾经又是巴菲特银行股的最爱。只可惜这家公司因为一系列丑闻,特别是监管出现问题之后公司迟迟不能搞定监管而深陷困境,巴菲特最后无奈减持。不过自从巴菲特减持后,股价却触底反弹。下图绿色是巴菲特持仓,白色是股价。2,<a href=\"https://laohu8.com/S/KO\">$可口可乐(KO)$</a> 巴菲特和可口可乐的故事几乎人尽皆知,特别是巴菲特投资“糖”的理念更是被传得神乎其神。对于可口可乐的投资,巴菲特过去十几年时间,没有增加一股,也没有减持一股,一直保持40万股。但是巴菲特的资产规模是不断增大,可口可乐持仓的比重不断减小,所以可以看出他对可口可乐的感情其实是逐步降低的。3,<a href=\"https://laohu8.com/S/AXP\">$美国运通(AXP)$</a> 巴菲特和美国运通的故事历史也很久远,网上也有很多讨","listText":"巴菲特开始减持比亚迪,不仅引起了资本市场激烈震荡和讨论,也引起了美国媒体的关注。但是看了一下,讨论的思考框架无外乎就是“不用过度解读,公司本身经营没有问题”这个大方向,卖方报告也多从比亚迪本身的业绩入手,认为公司长期看好。先多说一句,中西方文化在辩论的基础上存在巨大差异,中方的文化基础是“防守”,从自己的角度去证明一件事;而西方的文化基础是“进攻”(或者说“侵略”),要想证明自己清白最好的方法就是证明对手错误。我今天就从西方的角度去讨论这个问题——都说巴菲特是股神,那么他减持的股票是不是股价都从此一蹶不振?根据2013年以来Berkshire Hathaway的13F持仓显示,巴菲特前5大重仓一共有过10个股票,分别是WFC, KO, AXP, IBM, PG, WMT, KHC, AAPL, BAC, CVX。1,<a href=\"https://laohu8.com/S/WFC\">$富国银行(WFC)$</a> 巴菲特钟爱银行股,而富国银行曾经又是巴菲特银行股的最爱。只可惜这家公司因为一系列丑闻,特别是监管出现问题之后公司迟迟不能搞定监管而深陷困境,巴菲特最后无奈减持。不过自从巴菲特减持后,股价却触底反弹。下图绿色是巴菲特持仓,白色是股价。2,<a href=\"https://laohu8.com/S/KO\">$可口可乐(KO)$</a> 巴菲特和可口可乐的故事几乎人尽皆知,特别是巴菲特投资“糖”的理念更是被传得神乎其神。对于可口可乐的投资,巴菲特过去十几年时间,没有增加一股,也没有减持一股,一直保持40万股。但是巴菲特的资产规模是不断增大,可口可乐持仓的比重不断减小,所以可以看出他对可口可乐的感情其实是逐步降低的。3,<a href=\"https://laohu8.com/S/AXP\">$美国运通(AXP)$</a> 巴菲特和美国运通的故事历史也很久远,网上也有很多讨","text":"巴菲特开始减持比亚迪,不仅引起了资本市场激烈震荡和讨论,也引起了美国媒体的关注。但是看了一下,讨论的思考框架无外乎就是“不用过度解读,公司本身经营没有问题”这个大方向,卖方报告也多从比亚迪本身的业绩入手,认为公司长期看好。先多说一句,中西方文化在辩论的基础上存在巨大差异,中方的文化基础是“防守”,从自己的角度去证明一件事;而西方的文化基础是“进攻”(或者说“侵略”),要想证明自己清白最好的方法就是证明对手错误。我今天就从西方的角度去讨论这个问题——都说巴菲特是股神,那么他减持的股票是不是股价都从此一蹶不振?根据2013年以来Berkshire Hathaway的13F持仓显示,巴菲特前5大重仓一共有过10个股票,分别是WFC, KO, AXP, IBM, PG, WMT, KHC, AAPL, BAC, CVX。1,$富国银行(WFC)$ 巴菲特钟爱银行股,而富国银行曾经又是巴菲特银行股的最爱。只可惜这家公司因为一系列丑闻,特别是监管出现问题之后公司迟迟不能搞定监管而深陷困境,巴菲特最后无奈减持。不过自从巴菲特减持后,股价却触底反弹。下图绿色是巴菲特持仓,白色是股价。2,$可口可乐(KO)$ 巴菲特和可口可乐的故事几乎人尽皆知,特别是巴菲特投资“糖”的理念更是被传得神乎其神。对于可口可乐的投资,巴菲特过去十几年时间,没有增加一股,也没有减持一股,一直保持40万股。但是巴菲特的资产规模是不断增大,可口可乐持仓的比重不断减小,所以可以看出他对可口可乐的感情其实是逐步降低的。3,$美国运通(AXP)$ 巴菲特和美国运通的故事历史也很久远,网上也有很多讨","images":[{"img":"https://static.tigerbbs.com/ead26bdc489d99095fb4799cbe0aa05e","width":"-1","height":"-1"},{"img":"https://static.tigerbbs.com/c57abe1d6c72b9c3b1c89e49656ebd74","width":"-1","height":"-1"},{"img":"https://static.tigerbbs.com/9d605db39ee636e2bd9c071bfeaa66aa","width":"-1","height":"-1"}],"top":1,"highlighted":2,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/669074694","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":10,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":1036,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"hots":[{"id":271328040509552,"gmtCreate":1707293956558,"gmtModify":1707293958057,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"懂了Tesla卖了换aapl","listText":"懂了Tesla卖了换aapl","text":"懂了Tesla卖了换aapl","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/271328040509552","repostId":"2409162512","repostType":2,"repost":{"id":"2409162512","pubTimestamp":1707293346,"share":"https://www.laohu8.com/m/news/2409162512?lang=&edition=full","pubTime":"2024-02-07 16:09","market":"us","language":"zh","title":"马斯克评价苹果Vision Pro:“它并没有让我震惊”","url":"https://stock-news.laohu8.com/highlight/detail?id=2409162512","media":"环球市场播报","summary":"感觉还没到那一步。","content":"<html><head></head><body><p><a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>CEO埃隆·马斯克周三在X平台上回应了一位用户对<a href=\"https://laohu8.com/S/AAPL\">苹果</a>MR头显Vision Pro的评论。</p><p>该用户写道:“一旦你长时间体验了Vision Pro,你就很容易想象到未来你会戴上一副眼镜,让你以前所未有的方式与现实互动。它只会在你需要的时候出现。它将是无干扰的,但超级沉浸式的。它将与你所有的应用和服务协同工作。它将取代显示器、电视、手机和其他任何有屏幕的东西。”</p><p>这位用户在帖子的最后总结道:“这就是我对苹果Vision Pro的感觉。这就是未来,但还没到。”</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9f1aed1df82e9507a9d7d0e23316ea83\" tg-width=\"550\" tg-height=\"629\"/></p><p>马斯克回应称:“感觉还没到那一步。我试过Vision了,但它并没有让我震惊。”</p><p>不过,马斯克接着说:“iPhone 1在我看来也不怎么样。考虑到所有因素,它的实用性比其他替代品要低,但到了iPhone 3,它无疑是最好的‘智能手机’。”</p></body></html>","source":"lsy1687560890796","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>马斯克评价苹果Vision Pro:“它并没有让我震惊”</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n马斯克评价苹果Vision Pro:“它并没有让我震惊”\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-02-07 16:09 北京时间 <a href=https://finance.sina.com.cn/stock/usstock/c/2024-02-07/doc-inaheyrc8522329.shtml><strong>环球市场播报</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>特斯拉CEO埃隆·马斯克周三在X平台上回应了一位用户对苹果MR头显Vision Pro的评论。该用户写道:“一旦你长时间体验了Vision Pro,你就很容易想象到未来你会戴上一副眼镜,让你以前所未有的方式与现实互动。它只会在你需要的时候出现。它将是无干扰的,但超级沉浸式的。它将与你所有的应用和服务协同工作。它将取代显示器、电视、手机和其他任何有屏幕的东西。”这位用户在帖子的最后总结道:“这就是我...</p>\n\n<a href=\"https://finance.sina.com.cn/stock/usstock/c/2024-02-07/doc-inaheyrc8522329.shtml\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/bbd32e766c275244b020439e49e07673","relate_stocks":{"AAPL":"苹果"},"source_url":"https://finance.sina.com.cn/stock/usstock/c/2024-02-07/doc-inaheyrc8522329.shtml","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2409162512","content_text":"特斯拉CEO埃隆·马斯克周三在X平台上回应了一位用户对苹果MR头显Vision Pro的评论。该用户写道:“一旦你长时间体验了Vision Pro,你就很容易想象到未来你会戴上一副眼镜,让你以前所未有的方式与现实互动。它只会在你需要的时候出现。它将是无干扰的,但超级沉浸式的。它将与你所有的应用和服务协同工作。它将取代显示器、电视、手机和其他任何有屏幕的东西。”这位用户在帖子的最后总结道:“这就是我对苹果Vision Pro的感觉。这就是未来,但还没到。”马斯克回应称:“感觉还没到那一步。我试过Vision了,但它并没有让我震惊。”不过,马斯克接着说:“iPhone 1在我看来也不怎么样。考虑到所有因素,它的实用性比其他替代品要低,但到了iPhone 3,它无疑是最好的‘智能手机’。”","news_type":1},"isVote":1,"tweetType":1,"viewCount":1318,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":268803828301968,"gmtCreate":1706656744383,"gmtModify":1706670170801,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/AAPL\">$苹果(AAPL)$ </a><v-v data-views=\"1\"></v-v> 长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀","listText":"<a href=\"https://laohu8.com/S/AAPL\">$苹果(AAPL)$ </a><v-v data-views=\"1\"></v-v> 长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀","text":"$苹果(AAPL)$ 长期看好Apple vision潜力 研发重心明显已经从其他产品线移动至该项目,导致其他产品有大量下滑,苹果的基本面很优秀","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/268803828301968","isVote":1,"tweetType":1,"viewCount":2360,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":353613727,"gmtCreate":1616490725669,"gmtModify":1616490725669,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这么贵","listText":"这么贵","text":"这么贵","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/353613727","repostId":"1198112996","repostType":4,"repost":{"id":"1198112996","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1616490514,"share":"https://www.laohu8.com/m/news/1198112996?lang=&edition=full","pubTime":"2021-03-23 17:08","market":"hk","language":"zh","title":"哔哩哔哩:香港IPO发售价确定为每股808港元","url":"https://stock-news.laohu8.com/highlight/detail?id=1198112996","media":"老虎资讯综合","summary":"哔哩哔哩:国际发售与香港公开发售的最终发售价均已确定为每股发售股份808.00港元。哔哩哔哩:本公司的全球发售所得款项总额预计约为202.00亿港元。待香港联交所批准后,本公司Z类普通股预期将于202","content":"<p><a href=\"https://laohu8.com/S/BILI\">哔哩哔哩</a>:国际发售与香港公开发售的最终发售价均已确定为每股发售股份808.00港元。</p><p>哔哩哔哩:本公司的全球发售所得款项总额预计约为202.00亿港元。待香港联交所批准后,本公司Z类普通股预期将于2021年3月29日(星期一)在香港联交所主板以股份代号9626开始交易。</p><p>截至2021年1月31日,哔哩哔哩董事长兼CEO陈睿持股14.2%,享有44.6%的投票权;哔哩哔哩创始人兼总裁徐逸持股8.0%,享有24.7%的投票权;副董事长兼COO李旖持股2.3%。<a href=\"https://laohu8.com/S/00700\">腾讯</a>持股12.4%,享有4%的投票权;淘宝中国持股6.7%,享有2.1%的投票权。</p><p>招股书显示,本次B站募资的用途主要为四方面。第一,用于内容,以支持公司健康和高质量的用户增长,不断增长的内容生态和社区发展;第二,用于投资发展技术,包括人工智能和云技术等;第三,用于销售及营销,旨在促进用户增长及提升品牌知名度;第四,则是用于一般企业用途。</p>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>哔哩哔哩:香港IPO发售价确定为每股808港元</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n哔哩哔哩:香港IPO发售价确定为每股808港元\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2021-03-23 17:08</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<p><a href=\"https://laohu8.com/S/BILI\">哔哩哔哩</a>:国际发售与香港公开发售的最终发售价均已确定为每股发售股份808.00港元。</p><p>哔哩哔哩:本公司的全球发售所得款项总额预计约为202.00亿港元。待香港联交所批准后,本公司Z类普通股预期将于2021年3月29日(星期一)在香港联交所主板以股份代号9626开始交易。</p><p>截至2021年1月31日,哔哩哔哩董事长兼CEO陈睿持股14.2%,享有44.6%的投票权;哔哩哔哩创始人兼总裁徐逸持股8.0%,享有24.7%的投票权;副董事长兼COO李旖持股2.3%。<a href=\"https://laohu8.com/S/00700\">腾讯</a>持股12.4%,享有4%的投票权;淘宝中国持股6.7%,享有2.1%的投票权。</p><p>招股书显示,本次B站募资的用途主要为四方面。第一,用于内容,以支持公司健康和高质量的用户增长,不断增长的内容生态和社区发展;第二,用于投资发展技术,包括人工智能和云技术等;第三,用于销售及营销,旨在促进用户增长及提升品牌知名度;第四,则是用于一般企业用途。</p>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/5864d278f2595d2e7918e2cb2d118419","relate_stocks":{"BILI":"哔哩哔哩","09626":"哔哩哔哩-W"},"is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1198112996","content_text":"哔哩哔哩:国际发售与香港公开发售的最终发售价均已确定为每股发售股份808.00港元。哔哩哔哩:本公司的全球发售所得款项总额预计约为202.00亿港元。待香港联交所批准后,本公司Z类普通股预期将于2021年3月29日(星期一)在香港联交所主板以股份代号9626开始交易。截至2021年1月31日,哔哩哔哩董事长兼CEO陈睿持股14.2%,享有44.6%的投票权;哔哩哔哩创始人兼总裁徐逸持股8.0%,享有24.7%的投票权;副董事长兼COO李旖持股2.3%。腾讯持股12.4%,享有4%的投票权;淘宝中国持股6.7%,享有2.1%的投票权。招股书显示,本次B站募资的用途主要为四方面。第一,用于内容,以支持公司健康和高质量的用户增长,不断增长的内容生态和社区发展;第二,用于投资发展技术,包括人工智能和云技术等;第三,用于销售及营销,旨在促进用户增长及提升品牌知名度;第四,则是用于一般企业用途。","news_type":1},"isVote":1,"tweetType":1,"viewCount":831,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":324479695008008,"gmtCreate":1720247734120,"gmtModify":1720247736131,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/324479695008008","repostId":"323761247272984","repostType":1,"repost":{"id":323761247272984,"gmtCreate":1720079438374,"gmtModify":1720079467176,"author":{"id":"4142574206948102","authorId":"4142574206948102","name":"期权叨叨虎","avatar":"https://static.tigerbbs.com/87212d005a0736e14fa8b5e673df8099","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"4142574206948102","idStr":"4142574206948102"},"themes":[],"title":"佩洛西买入博通!为什么用期权不用股票?","htmlText":"被称为“国会山股神”的美国前众议长佩洛西近期频繁出手,根据国会议员交易纪录显示,佩洛西购买了博通的看涨期权和1万股英伟达股票,卖掉了部分特斯拉和VISA股票。资料来源:老虎国际佩洛西买入长期看涨期权根据纪录,6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。这笔交易的总价值估计在1,000,001美元至5,000,000美元之间。两天后的26日,佩洛西又进行了另一笔重要投资,购买了10,000股英伟达公司的股票。这笔交易与博通的购买类似,估值在1,000,001美元至5,000,000美元之间。今年以来,英伟达和博通都经历了大涨,股价分别上涨了154%和52%,这主要受益于人工智能相关支出的激增。其中,英伟达的购买尤其值得注意,因为佩洛西与英伟达有着悠久而引人注目的交易历史,她在2023年末曾进行的一次非常成功的期权交易。而早在2024年初,据报道,佩洛西对英伟达投资收益已经超过了她作为国会议员的年薪。而对于博通的看涨期权,其行权价为800美元,也具有很大的潜在上涨空间,因为华尔街普遍认为博通的股票将在未来12个月内至少再上涨11%。佩洛西这里购买的实际上是期权里面的LEAPS。什么是LEAPS?LEAPS英文全称为long-term equity anticipation securities,指到期日超过 1 年的期权。它们在功能上与大多数其他上市期权相同,只是到期时间更长。除了到期日较晚之外,LEAPS 与短期期权没有什么不同。到期时间越长,长期投资者就越有可能参与长期价格波动。佩洛西LEAPS案例6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。回看当日的期权成交情况,成交价在836.93美元。资料来源:老虎国际佩洛西持有博通的真实成本为期权花费加上800美元的行权价为1","listText":"被称为“国会山股神”的美国前众议长佩洛西近期频繁出手,根据国会议员交易纪录显示,佩洛西购买了博通的看涨期权和1万股英伟达股票,卖掉了部分特斯拉和VISA股票。资料来源:老虎国际佩洛西买入长期看涨期权根据纪录,6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。这笔交易的总价值估计在1,000,001美元至5,000,000美元之间。两天后的26日,佩洛西又进行了另一笔重要投资,购买了10,000股英伟达公司的股票。这笔交易与博通的购买类似,估值在1,000,001美元至5,000,000美元之间。今年以来,英伟达和博通都经历了大涨,股价分别上涨了154%和52%,这主要受益于人工智能相关支出的激增。其中,英伟达的购买尤其值得注意,因为佩洛西与英伟达有着悠久而引人注目的交易历史,她在2023年末曾进行的一次非常成功的期权交易。而早在2024年初,据报道,佩洛西对英伟达投资收益已经超过了她作为国会议员的年薪。而对于博通的看涨期权,其行权价为800美元,也具有很大的潜在上涨空间,因为华尔街普遍认为博通的股票将在未来12个月内至少再上涨11%。佩洛西这里购买的实际上是期权里面的LEAPS。什么是LEAPS?LEAPS英文全称为long-term equity anticipation securities,指到期日超过 1 年的期权。它们在功能上与大多数其他上市期权相同,只是到期时间更长。除了到期日较晚之外,LEAPS 与短期期权没有什么不同。到期时间越长,长期投资者就越有可能参与长期价格波动。佩洛西LEAPS案例6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。回看当日的期权成交情况,成交价在836.93美元。资料来源:老虎国际佩洛西持有博通的真实成本为期权花费加上800美元的行权价为1","text":"被称为“国会山股神”的美国前众议长佩洛西近期频繁出手,根据国会议员交易纪录显示,佩洛西购买了博通的看涨期权和1万股英伟达股票,卖掉了部分特斯拉和VISA股票。资料来源:老虎国际佩洛西买入长期看涨期权根据纪录,6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。这笔交易的总价值估计在1,000,001美元至5,000,000美元之间。两天后的26日,佩洛西又进行了另一笔重要投资,购买了10,000股英伟达公司的股票。这笔交易与博通的购买类似,估值在1,000,001美元至5,000,000美元之间。今年以来,英伟达和博通都经历了大涨,股价分别上涨了154%和52%,这主要受益于人工智能相关支出的激增。其中,英伟达的购买尤其值得注意,因为佩洛西与英伟达有着悠久而引人注目的交易历史,她在2023年末曾进行的一次非常成功的期权交易。而早在2024年初,据报道,佩洛西对英伟达投资收益已经超过了她作为国会议员的年薪。而对于博通的看涨期权,其行权价为800美元,也具有很大的潜在上涨空间,因为华尔街普遍认为博通的股票将在未来12个月内至少再上涨11%。佩洛西这里购买的实际上是期权里面的LEAPS。什么是LEAPS?LEAPS英文全称为long-term equity anticipation securities,指到期日超过 1 年的期权。它们在功能上与大多数其他上市期权相同,只是到期时间更长。除了到期日较晚之外,LEAPS 与短期期权没有什么不同。到期时间越长,长期投资者就越有可能参与长期价格波动。佩洛西LEAPS案例6月24日,佩洛西购买了20份博通公司行权价为800美元、到期日为2025年6月20日的看涨期权。回看当日的期权成交情况,成交价在836.93美元。资料来源:老虎国际佩洛西持有博通的真实成本为期权花费加上800美元的行权价为1","images":[{"img":"https://static.tigerbbs.com/1c15b9d49716a57f38cadc5a99ec160c","width":"816","height":"498"},{"img":"https://static.tigerbbs.com/e4b71b6e5ba2442f90681b406dee0062","width":"830","height":"570"},{"img":"https://static.tigerbbs.com/c33931da687629e18b72551d905945e1","width":"831","height":"406"}],"top":1,"highlighted":1,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/323761247272984","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":3,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":433,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":288879290171600,"gmtCreate":1711551614569,"gmtModify":1711551616140,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/288879290171600","repostId":"2422631321","repostType":2,"repost":{"id":"2422631321","pubTimestamp":1711431920,"share":"https://www.laohu8.com/m/news/2422631321?lang=&edition=full","pubTime":"2024-03-26 13:45","market":"us","language":"zh","title":"嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场","url":"https://stock-news.laohu8.com/highlight/detail?id=2422631321","media":"智通财经","summary":"没有采取行动才是最能说明问题的。","content":"<html><head></head><body><p>自1960年代中期以来,<a href=\"https://laohu8.com/S/161125\">标普500</a>指数的总回报率约为34,200%,而“股神”沃伦·巴菲特自担任<a href=\"https://laohu8.com/S/BRK.A\">伯克希尔</a>哈撒韦公司首席执行官以来,该公司的A类股票累计涨幅达到了惊人的5,074,030%。</p><p>他和投资团队通常会寻找那些提供持续竞争优势、拥有坚如磐石的管理团队的企业。由于巴菲特在资金管理方面取得的巨大成功,专业投资者和普通投资者都倾向于参考他的投资策略。投资者可以通过伯克希尔哈撒韦向美国证券交易委员会(SEC)提交的季度持仓报告(13F)来了解巴菲特的买卖情况。</p><p>但有的时候,没有采取行动才是最能说明问题的。</p><p><strong>手握1680亿美元现金</strong></p><p>大约一个月前,伯克希尔哈撒韦布了2023年第四季度业绩。该公司Q4营业利润较上年同期增长约65亿美元,至374亿美元。虽然伯克希尔哈撒韦最为人所知的可能是其价值3760亿美元的投资组合,其中包括45只股票和两只指数基金,但该公司还拥有大约50家企业的股权,如保险公司GEICO和铁路公司BNSF。</p><p>值得注意的是,在过去的五个季度(从2022年10月1日开始)中,巴菲特和他的投资“副手”泰德·韦施勒和托德·库姆斯一直是股票的净卖家。换句话说,在过去15个月里,他们卖出的股票超过了买入的股票,总计接近390亿美元。</p><p>从经营中获得正现金流,再加上一直是股票的净卖家,伯克希尔哈撒韦公司的现金储备膨胀至1676亿美元的历史最高水平。</p><p>一般来说,手头拥有大量现金,为大多数企业提供了在创新、资本回报和收购方面令人羡慕的财务灵活性。</p><p>但伯克希尔哈撒韦公司并不是一家普通的公司。几十年来,巴菲特和他的团队一直指望用伯克希尔的资本来补充营业利润的增长,并推动投资收益。简而言之,快速增长的现金储备表明,巴菲特没有找到任何值得投资的公司。他不愿将公司的资本投入使用,这是一个无声的警告,投资者不应忽视。</p><p><strong>美股估值处于历史高位</strong></p><p>尽管巴菲特声称永远不会做空美国,但伯克希尔不断增长的现金储备表明,如果估值不合适,他也不会押注股票。</p><p>虽然华尔街不乏分析估值的方法,但标普500指数的席勒市盈率(P/E),也被称为周期调整市盈率(CAPE),是最好的方法之一。</p><p>席勒市盈率不像传统市盈率那样使用过去12个月的收益,而是基于过去10年经通胀调整后的平均收益。经通胀调整后的收益剔除了可能影响传统估值分析的一次性事件,如新冠疫情。</p><p>回溯至1871年,标普500指数的席勒市盈率平均为17.1倍,不算高。截至2024年3月20日收盘,标普500指数的席勒市盈率略低于35倍。这是牛市期间最高的倍数之一。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/34ebef9781a0613cde1e49761b51b7ba\" title=\"\" tg-width=\"867\" tg-height=\"561\"/></p><p>纵观历史,每当席勒市盈率超过30倍并长时间保持这一水平时,股市面临下跌风险。自1871年起,道琼斯工业平均指数或标普500指数曾出现过五次这样的情况,最终股市都下跌了20%至89%。</p><p>不过,席勒市盈率并不是一个择时工具。例如,1997年至2001年间,该指标有4年时间保持在30以上,之后互联网泡沫重创了估值较高的成长型股票。现在席勒市盈率接近35并不意味着股市很快就会出现下跌。但历史确实表明,熊市终将到来。</p><p>巴菲特在最近致股东的年度信中表示:“不管出于什么原因,现在的市场表现出比我年轻时更像赌场的行为。”一位著名投资者将股市形容为“赌场”,这表明目前很难找到价值。</p><p><strong>耐心和远见永远胜过市场时机</strong></p><p>尽管巴菲特对华尔街的“赌场”特征直言不讳,但他曾多次明确表示永远不会做空美国。巴菲特比大多数投资者更明白,耐心和远见远比试图把握股票的短期走势重要得多。</p><p>例如,经济放缓和衰退是经济周期的正常组成部分。自第二次世界大战结束以来,美国经历了12次经济衰退,其中9次在不到一年的时间里就得到解决。其余3次均未超过18个月。相比之下,大多数增长期都能持续数年,有2次增长时间超过了10年大关。</p><p>这种经济扩张和衰退持续时间的不平衡在股市上也很明显。虽然股市不能反映美国经济的表现,但企业盈利通常会随着经济的健康状况而起伏。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/55562b8d8ce74a5d968b9acaa5eb1334\" title=\"\" tg-width=\"476\" tg-height=\"715\"/></p><p>Bespoke的数据显示,熊市平均持续286个日历日,约为9.5个月。另一方面,在过去94年里,典型的牛市持续了1,011个日历日,大约是熊市平均时间的3.5倍。事实上,在Bespoke研究的27次牛市中,有13次的持续时间比最长的熊市还要长。</p><p>The Motley Fool分析师Sean Williams认为,巴菲特不断增长的现金储备明确但无声地承认,他和他的团队都没有看到太多价值。但这并不意味着巴菲特放弃了给他和股东带来巨大财富的美国股市。</p><p>半个多世纪以来,巴菲特一直利用伯克希尔的资金,以低廉的价格收购优质企业。虽然没有人知道巴菲特什么时候会再次出手,但可以肯定的是,在未来的某个时候,伯克希尔1680亿美元现金储备中的相当一部分将会投入使用。</p></body></html>","source":"stock_zhitongcaijing","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n嫌美股太贵?手握1680亿美元巨额现金,“股神”巴菲特迟迟不愿入场\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-26 13:45 北京时间 <a href=http://www.zhitongcaijing.com/content/detail/1092146.html><strong>智通财经</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>自1960年代中期以来,标普500指数的总回报率约为34,200%,而“股神”沃伦·巴菲特自担任伯克希尔哈撒韦公司首席执行官以来,该公司的A类股票累计涨幅达到了惊人的5,074,030%。他和投资团队通常会寻找那些提供持续竞争优势、拥有坚如磐石的管理团队的企业。由于巴菲特在资金管理方面取得的巨大成功,专业投资者和普通投资者都倾向于参考他的投资策略。投资者可以通过伯克希尔哈撒韦向美国证券交易委员会(...</p>\n\n<a href=\"http://www.zhitongcaijing.com/content/detail/1092146.html\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/f3ecc14db02762fcb82cdbb76e654301","relate_stocks":{"BRK.A":"伯克希尔","BRK.B":"伯克希尔B"},"source_url":"http://www.zhitongcaijing.com/content/detail/1092146.html","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2422631321","content_text":"自1960年代中期以来,标普500指数的总回报率约为34,200%,而“股神”沃伦·巴菲特自担任伯克希尔哈撒韦公司首席执行官以来,该公司的A类股票累计涨幅达到了惊人的5,074,030%。他和投资团队通常会寻找那些提供持续竞争优势、拥有坚如磐石的管理团队的企业。由于巴菲特在资金管理方面取得的巨大成功,专业投资者和普通投资者都倾向于参考他的投资策略。投资者可以通过伯克希尔哈撒韦向美国证券交易委员会(SEC)提交的季度持仓报告(13F)来了解巴菲特的买卖情况。但有的时候,没有采取行动才是最能说明问题的。手握1680亿美元现金大约一个月前,伯克希尔哈撒韦布了2023年第四季度业绩。该公司Q4营业利润较上年同期增长约65亿美元,至374亿美元。虽然伯克希尔哈撒韦最为人所知的可能是其价值3760亿美元的投资组合,其中包括45只股票和两只指数基金,但该公司还拥有大约50家企业的股权,如保险公司GEICO和铁路公司BNSF。值得注意的是,在过去的五个季度(从2022年10月1日开始)中,巴菲特和他的投资“副手”泰德·韦施勒和托德·库姆斯一直是股票的净卖家。换句话说,在过去15个月里,他们卖出的股票超过了买入的股票,总计接近390亿美元。从经营中获得正现金流,再加上一直是股票的净卖家,伯克希尔哈撒韦公司的现金储备膨胀至1676亿美元的历史最高水平。一般来说,手头拥有大量现金,为大多数企业提供了在创新、资本回报和收购方面令人羡慕的财务灵活性。但伯克希尔哈撒韦公司并不是一家普通的公司。几十年来,巴菲特和他的团队一直指望用伯克希尔的资本来补充营业利润的增长,并推动投资收益。简而言之,快速增长的现金储备表明,巴菲特没有找到任何值得投资的公司。他不愿将公司的资本投入使用,这是一个无声的警告,投资者不应忽视。美股估值处于历史高位尽管巴菲特声称永远不会做空美国,但伯克希尔不断增长的现金储备表明,如果估值不合适,他也不会押注股票。虽然华尔街不乏分析估值的方法,但标普500指数的席勒市盈率(P/E),也被称为周期调整市盈率(CAPE),是最好的方法之一。席勒市盈率不像传统市盈率那样使用过去12个月的收益,而是基于过去10年经通胀调整后的平均收益。经通胀调整后的收益剔除了可能影响传统估值分析的一次性事件,如新冠疫情。回溯至1871年,标普500指数的席勒市盈率平均为17.1倍,不算高。截至2024年3月20日收盘,标普500指数的席勒市盈率略低于35倍。这是牛市期间最高的倍数之一。纵观历史,每当席勒市盈率超过30倍并长时间保持这一水平时,股市面临下跌风险。自1871年起,道琼斯工业平均指数或标普500指数曾出现过五次这样的情况,最终股市都下跌了20%至89%。不过,席勒市盈率并不是一个择时工具。例如,1997年至2001年间,该指标有4年时间保持在30以上,之后互联网泡沫重创了估值较高的成长型股票。现在席勒市盈率接近35并不意味着股市很快就会出现下跌。但历史确实表明,熊市终将到来。巴菲特在最近致股东的年度信中表示:“不管出于什么原因,现在的市场表现出比我年轻时更像赌场的行为。”一位著名投资者将股市形容为“赌场”,这表明目前很难找到价值。耐心和远见永远胜过市场时机尽管巴菲特对华尔街的“赌场”特征直言不讳,但他曾多次明确表示永远不会做空美国。巴菲特比大多数投资者更明白,耐心和远见远比试图把握股票的短期走势重要得多。例如,经济放缓和衰退是经济周期的正常组成部分。自第二次世界大战结束以来,美国经历了12次经济衰退,其中9次在不到一年的时间里就得到解决。其余3次均未超过18个月。相比之下,大多数增长期都能持续数年,有2次增长时间超过了10年大关。这种经济扩张和衰退持续时间的不平衡在股市上也很明显。虽然股市不能反映美国经济的表现,但企业盈利通常会随着经济的健康状况而起伏。Bespoke的数据显示,熊市平均持续286个日历日,约为9.5个月。另一方面,在过去94年里,典型的牛市持续了1,011个日历日,大约是熊市平均时间的3.5倍。事实上,在Bespoke研究的27次牛市中,有13次的持续时间比最长的熊市还要长。The Motley Fool分析师Sean Williams认为,巴菲特不断增长的现金储备明确但无声地承认,他和他的团队都没有看到太多价值。但这并不意味着巴菲特放弃了给他和股东带来巨大财富的美国股市。半个多世纪以来,巴菲特一直利用伯克希尔的资金,以低廉的价格收购优质企业。虽然没有人知道巴菲特什么时候会再次出手,但可以肯定的是,在未来的某个时候,伯克希尔1680亿美元现金储备中的相当一部分将会投入使用。","news_type":1},"isVote":1,"tweetType":1,"viewCount":569,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":288683464519808,"gmtCreate":1711512129293,"gmtModify":1711512131038,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"在长期看,我们都死了","listText":"在长期看,我们都死了","text":"在长期看,我们都死了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/288683464519808","repostId":"2422650248","repostType":2,"repost":{"id":"2422650248","pubTimestamp":1711503369,"share":"https://www.laohu8.com/m/news/2422650248?lang=&edition=full","pubTime":"2024-03-27 09:36","market":"hk","language":"zh","title":"华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”","url":"https://stock-news.laohu8.com/highlight/detail?id=2422650248","media":"智通财经网","summary":"华尔街近期的看涨研报可谓一份比一份激进,继高盛大胆预测标普500指数2024年有望冲向6000点之后,美国银行近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——标普500指数有望在接下去的几年里进一步强势上涨,进而全面延续“史诗级长牛”之势。","content":"<html><head></head><body><blockquote><p><a href=\"https://laohu8.com/S/BAC\">美国银行</a>的策略师们表示,美股“长牛”即将迎来第11年。该机构称这次反弹尚处“中年”阶段,并预计2026年底之前可能将飙升约34%。</p></blockquote><p>华尔街近期的看涨研报可谓一份比一份激进,继<a href=\"https://laohu8.com/S/GS\">高盛</a>大胆预测<a href=\"https://laohu8.com/S/161125\">标普500</a>指数2024年有望冲向6000点之后,美国银行(Bank of America)近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——标普500指数有望在接下去的几年里进一步强势上涨,进而全面延续“史诗级长牛”之势。</p><p>随着标普500指数在今年不断刷新历史新高,美国银行的策略师们表示,从股市长牛的技术面趋势来看,美股本轮堪称史诗级的“长牛”有望持续至2030年左右,并预计标普500指数2026年年底之前可能将升至7000点(截至周一美股收盘,标普500指数收于5218.19点)。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/df35afb835bdc3ec9ff81f83418358d9\" title=\"\" tg-width=\"1073\" tg-height=\"523\"/></p><p>美银的策略师们在报告中表示,美股这轮长期牛市正式开始于2013年4月,当时美国股市超越了2007年和2000年所创下的历史级别峰值。这种长期的史诗级牛市涨势在2023年12月再次得到证实,当时标普500指数在4,600这一点位附近突破其技术面上关键的“看涨杯柄模式”。自那以来,标普500指数已攀升逾14%,且2024年以来不断创下历史新高。</p><p>美银的策略师们预计,标普500指数的“史诗级长牛”之势将持续,并暗示该指数到2026年底之前可能将再上涨大约34%。“标普500指数已经从2022年10月的阶段性的低点大幅反弹约46%,”美国银行技术策略师萨特迈尔(Stephen Suttmeier)领导的策略团队表示。“并且从历史性的低点突破性反弹106%的美股牛市按照反弹中位数理论可能将继续大约四年,这意味着,不排除标普到2026年底之前上涨至7000点的可能性。”</p><p><strong>2013年开启的美股史诗级“长牛”之势,有望持续至2030年</strong></p><p>至于这一轮史诗级的美股“长期牛市”何时将出现停止迹象,萨特迈尔领导的美银策略师们预计至少在2030年之前看不到这一轮美股“史诗级长牛”的尽头。美银策略师们写道:“ 1950-1966年,以及1980-2000年的美股长期牛市分别持续了16年与20年,这意味着当前的美股长期牛市仅仅处于‘中年阶段’,非常有可能延续到2029年 - 2033年。"</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a905095f46ff74744e0f2fa44ea033c\" title=\"\" tg-width=\"800\" tg-height=\"538\"/></p><p>美银策略师们在研报中表示,从技术面角度来看,标普500指数在去年12月突破4,600点这一历史性的大关标志着两个近期价格目标有望达成,分别是5,200点和5,600点。因此,随着5200点的目标已经实现,标普500指数至少在2024年的下一个技术面目标将是继续上涨7%,达到5600点左右。</p><p>此外,萨特迈尔领导的美银策略师们重点强调道,标普500指数在1月突破约4,800点的这一创纪录高位,从技术面上预示着未来的另一个点位目标在6,150点附近,而这一技术面上的目标点位可谓非常激进,比当前的标普500指数点位高出足足18%。但是,该点位一定程度上符合与美国总统选举周期相关的“看涨交易周期”——即美国总统第一个任期的第四年往往对美国股市非常有利。</p><p>从技术面角度来看,在下行底线指标方面,萨特迈尔领导的美银策略师们表示,投资者应关注4,800和4,600点这两大重要的支撑位,这意味着该指数遭遇极端负面催化之下,有可能比当前水平下跌多达12%。</p><p><strong>就2024年美股前景而言,越来越多华尔街策略师上调标普500指数年终点位!</strong></p><p>值得注意的是,就2024年美股前景而言,华尔街的重要看跌势力纷纷转向看涨,越来越多的华尔街顶级策略师上调标普500指数的年终点位。因此,美银策略团队根据技术面所预测的5600点这一点位非常有可能将在2024年实现。此外,美银团队预测的更激进的技术面目标点位——6150点,也有可能实现但是可能性较低,前提是占据标普500指数高额权重的<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>、<a href=\"https://laohu8.com/S/MSFT\">微软</a>等“七大科技巨头”(Magnificent 7)业绩持续远超市场预期。</p><p>七大科技巨头,即Magnificent 7包括:<a href=\"https://laohu8.com/S/AAPL\">苹果</a>、<a href=\"https://laohu8.com/S/MSFT\">微软</a>、<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>、<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>、<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>、<a href=\"https://laohu8.com/S/AMZN\">亚马逊</a>以及<a href=\"https://laohu8.com/S/META\">Meta Platforms</a>。全球投资者们2023年-2024年初期持续蜂拥而至七大科技巨头,尤其将英伟达、微软以及Meta股价不断推向历史新高。最主要的原因可谓是他们纷纷押注,由于科技巨头们的庞大市场规模和财务实力,它们处于利用人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>技术扩展营收的最佳位置。标普500指数在2023年高达23%的涨幅中,这一群体约贡献三分之二。</p><p>全球企业纷纷布局人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>的这股疯狂热潮,以及“AI卖铲人”连续四个季度无与伦比的业绩增长之势可谓令华尔街预测人士感到意外,并促使华尔街策略师们相信AI时代已经到来,人类社会生产效率有望步入新阶段,因此竞相跟上已经超出他们预期的股市反弹步伐,并且越来越多的看跌策略师转向看涨阵营。此外,美股市场上甚至存在这样一种观点:无论AI泡沫是否存在,美股科技股估值都有非常充裕的扩张空间。</p><p>Piper Sandler策略师Michael Kantrowitz可谓是2023年华尔街最看空美国股市的策略师,2023年该策略师甚至看跌美股至3225点,然而标普500指数在2023年以“技术性牛市”打脸Kantrowitz,近期该分析师已经将标普500指数的预期大幅上调至5250点。</p><p>来自美国银行的明星策略师萨勃拉曼尼亚(Savita Subramanian)将该机构对于标普500指数的年终目标上调至5400点,与华尔街最高水平持平。她加入了Yardeni Research的总裁兼创始人埃德•亚德尼(Ed Yardeni)和<a href=\"https://laohu8.com/S/UBS\">瑞银</a>集团(UBS Group AG)的知名策略师乔纳森•戈卢布(Jonathan Golub)的行列,这两位看涨美股的策略师都对截至年底的美股前景持相同的积极看法,看涨至5400点这一乐观点位。</p><p>随着美股大幅上涨引发与过去泡沫时期的全面对比,国际大行$法国<a href=\"https://laohu8.com/S/601166\">兴业银行</a>(0J6Y.UK)$的策略师们表示,强劲的业绩和美国经济重新加速的迹象表明这种涨势是合理的。该行的美股策略主管卡布拉(Manish Kabra)领导的团队在近日发布的一份报告中写道:“我们认为当前涨势更多由理性乐观而不是非理性繁荣所推动。”策略师提到的“好于预期”的企业盈利广度、新利润周期高点以及全球领先指标好转。</p><p>关于当前美股科技股是否已经处于泡沫之中,卡布拉领导的法兴银行策略师们则表示,如果套用1999年互联网泡沫顶峰时期的各项数据,标普500指数需要升至至少6250点才能与当时非理性繁荣周期的“科技股泡沫”水平相提并论,相比之下美股最新收于5218.19点。</p><p>此外,卡布拉领导的法兴银行策略师们将其对标普500指数在2024年底的目标点位由4750点上调至5500点,策略师们表示,在企业盈利前景改善和人工智能热潮的背景下,美国股市创纪录的上涨势头可谓不可阻挡。</p><p>来自华尔街大行<a href=\"https://laohu8.com/S/GS\">高盛</a>的策略师们重申标普500指数年终目标将在5200点,但策略师们认为英伟达等大型科技公司业绩持续强劲将推动科技股持续上涨,进而可能将该基准指数推高至6000点。“我们最乐观的预测点位将是标普500指数从目前的水平上涨约15%,到年底达到6000点。”高盛策略师们在上周五发布的一份研报中表示。</p><p><a href=\"https://laohu8.com/S/BCS\">巴克莱银行</a>可谓是华尔街最看好美股后市的投资机构之一。将该机构对美股基准指数——标普500指数的年底目标价从4800点大幅上调至5300点,主要因预期美股将继续受益于大型科技公司的丰厚盈利数据和美国经济在市场意料之外的优异表现。巴克莱在报告中还指出,如果大型科技公司的核心业绩数据延续远超预期的强劲表现,那么该机构认为标普500指数今年年末将有可能达到6050点。</p></body></html>","source":"sina","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n华尔街看涨研报越来越激进:2030年之前,美股主旋律将是“史诗级长牛”\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-27 09:36 北京时间 <a href=https://finance.sina.com.cn/stock/hkstock/ggscyd/2024-03-26/doc-inaprwin0500639.shtml><strong>智通财经网</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>美国银行的策略师们表示,美股“长牛”即将迎来第11年。该机构称这次反弹尚处“中年”阶段,并预计2026年底之前可能将飙升约34%。华尔街近期的看涨研报可谓一份比一份激进,继高盛大胆预测标普500指数2024年有望冲向6000点之后,美国银行(Bank of America)近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——...</p>\n\n<a href=\"https://finance.sina.com.cn/stock/hkstock/ggscyd/2024-03-26/doc-inaprwin0500639.shtml\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/af47ab6c10e46f0aea6733871f311696","relate_stocks":{"BK4587":"ChatGPT概念","IE0004445015.USD":"JANUS HENDERSON BALANCED \"A2\" (USD) ACC","SDS":"两倍做空标普500ETF","LU0097036916.USD":"贝莱德美国增长A2 USD","LU0466842654.USD":"HSBC ISLAMIC GLOBAL EQUITY INDEX \"A\" (USD) ACC","BK4527":"明星科技股","BK4559":"巴菲特持仓","LU0511384066.AUD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"A\" (AUDHDG) ACC","BK4579":"人工智能","LU0320765059.SGD":"FTIF - Franklin US Opportunities A Acc SGD","IE00B3M56506.USD":"NEUBERGER BERMAN EMERGING MARKETS EQUITY \"A\" (USD) ACC","BK4588":"碎股","BK4550":"红杉资本持仓","IE00BD6J9T35.USD":"NEUBERGER BERMAN NEXT GENERATION MOBILITY \"A\" (USD) ACC","BK4141":"半导体产品","LU0198837287.USD":"UBS (LUX) EQUITY SICAV - USA GROWTH \"P\" (USD) ACC","LU0444971666.USD":"天利全球科技基金","BK4503":"景林资产持仓","LU0289961442.SGD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"AX\" (SGD) ACC","IE0034235188.USD":"PINEBRIDGE GLOBAL FOCUS EQUITY \"A\" (USD) ACC","OEX":"标普100","BK4551":"寇图资本持仓",".SPX":"S&P 500 Index","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","SH":"标普500反向ETF","BK4581":"高盛持仓","LU0234570918.USD":"高盛全球核心股票组合Acc Close","LU0289739343.SGD":"SUSTAINABLE GLOBAL THEMATIC PORTFOLIO \"A\" (SGD) ACC","BK4504":"桥水持仓","UPRO":"三倍做多标普500ETF","OEF":"标普100指数ETF-iShares","IVV":"标普500指数ETF","SSO":"两倍做多标普500ETF","LU0238689110.USD":"贝莱德环球动力股票基金","LU0170899867.USD":"EASTSPRING INVESTMENTS WORLD VALUE EQUITY \"A\" (USD) ACC","LU0072462426.USD":"贝莱德全球配置 A2","BK4529":"IDC概念","SPXU":"三倍做空标普500ETF","LU0079474960.USD":"联博美国增长基金A","LU0056508442.USD":"贝莱德世界科技基金A2","BK4592":"伊斯兰概念","LU0640476718.USD":"THREADNEEDLE (LUX) US CONTRARIAN CORE EQ \"AU\" (USD) ACC","NVDA":"英伟达","IE00BJJMRY28.SGD":"Janus Henderson Balanced A Inc SGD","SPY":"标普500ETF","BK4567":"ESG概念","BK4585":"ETF&股票定投概念","IE00BMPRXN33.USD":"NEUBERGER BERMAN 5G CONNECTIVITY \"A\" (USD) ACC","LU0109392836.USD":"富兰克林科技股A"},"source_url":"https://finance.sina.com.cn/stock/hkstock/ggscyd/2024-03-26/doc-inaprwin0500639.shtml","is_english":false,"share_image_url":"https://static.laohu8.com/b0d1b7e8843deea78cc308b15114de44","article_id":"2422650248","content_text":"美国银行的策略师们表示,美股“长牛”即将迎来第11年。该机构称这次反弹尚处“中年”阶段,并预计2026年底之前可能将飙升约34%。华尔街近期的看涨研报可谓一份比一份激进,继高盛大胆预测标普500指数2024年有望冲向6000点之后,美国银行(Bank of America)近日发布研报称,美国股市的这一轮长期牛市即将迎来第11个年头,更重要的是,该机构强调从技术面分析角度来看,美股基准指数——标普500指数有望在接下去的几年里进一步强势上涨,进而全面延续“史诗级长牛”之势。随着标普500指数在今年不断刷新历史新高,美国银行的策略师们表示,从股市长牛的技术面趋势来看,美股本轮堪称史诗级的“长牛”有望持续至2030年左右,并预计标普500指数2026年年底之前可能将升至7000点(截至周一美股收盘,标普500指数收于5218.19点)。美银的策略师们在报告中表示,美股这轮长期牛市正式开始于2013年4月,当时美国股市超越了2007年和2000年所创下的历史级别峰值。这种长期的史诗级牛市涨势在2023年12月再次得到证实,当时标普500指数在4,600这一点位附近突破其技术面上关键的“看涨杯柄模式”。自那以来,标普500指数已攀升逾14%,且2024年以来不断创下历史新高。美银的策略师们预计,标普500指数的“史诗级长牛”之势将持续,并暗示该指数到2026年底之前可能将再上涨大约34%。“标普500指数已经从2022年10月的阶段性的低点大幅反弹约46%,”美国银行技术策略师萨特迈尔(Stephen Suttmeier)领导的策略团队表示。“并且从历史性的低点突破性反弹106%的美股牛市按照反弹中位数理论可能将继续大约四年,这意味着,不排除标普到2026年底之前上涨至7000点的可能性。”2013年开启的美股史诗级“长牛”之势,有望持续至2030年至于这一轮史诗级的美股“长期牛市”何时将出现停止迹象,萨特迈尔领导的美银策略师们预计至少在2030年之前看不到这一轮美股“史诗级长牛”的尽头。美银策略师们写道:“ 1950-1966年,以及1980-2000年的美股长期牛市分别持续了16年与20年,这意味着当前的美股长期牛市仅仅处于‘中年阶段’,非常有可能延续到2029年 - 2033年。\"美银策略师们在研报中表示,从技术面角度来看,标普500指数在去年12月突破4,600点这一历史性的大关标志着两个近期价格目标有望达成,分别是5,200点和5,600点。因此,随着5200点的目标已经实现,标普500指数至少在2024年的下一个技术面目标将是继续上涨7%,达到5600点左右。此外,萨特迈尔领导的美银策略师们重点强调道,标普500指数在1月突破约4,800点的这一创纪录高位,从技术面上预示着未来的另一个点位目标在6,150点附近,而这一技术面上的目标点位可谓非常激进,比当前的标普500指数点位高出足足18%。但是,该点位一定程度上符合与美国总统选举周期相关的“看涨交易周期”——即美国总统第一个任期的第四年往往对美国股市非常有利。从技术面角度来看,在下行底线指标方面,萨特迈尔领导的美银策略师们表示,投资者应关注4,800和4,600点这两大重要的支撑位,这意味着该指数遭遇极端负面催化之下,有可能比当前水平下跌多达12%。就2024年美股前景而言,越来越多华尔街策略师上调标普500指数年终点位!值得注意的是,就2024年美股前景而言,华尔街的重要看跌势力纷纷转向看涨,越来越多的华尔街顶级策略师上调标普500指数的年终点位。因此,美银策略团队根据技术面所预测的5600点这一点位非常有可能将在2024年实现。此外,美银团队预测的更激进的技术面目标点位——6150点,也有可能实现但是可能性较低,前提是占据标普500指数高额权重的英伟达、微软等“七大科技巨头”(Magnificent 7)业绩持续远超市场预期。七大科技巨头,即Magnificent 7包括:苹果、微软、谷歌、特斯拉、英伟达、亚马逊以及Meta Platforms。全球投资者们2023年-2024年初期持续蜂拥而至七大科技巨头,尤其将英伟达、微软以及Meta股价不断推向历史新高。最主要的原因可谓是他们纷纷押注,由于科技巨头们的庞大市场规模和财务实力,它们处于利用人工智能技术扩展营收的最佳位置。标普500指数在2023年高达23%的涨幅中,这一群体约贡献三分之二。全球企业纷纷布局人工智能的这股疯狂热潮,以及“AI卖铲人”连续四个季度无与伦比的业绩增长之势可谓令华尔街预测人士感到意外,并促使华尔街策略师们相信AI时代已经到来,人类社会生产效率有望步入新阶段,因此竞相跟上已经超出他们预期的股市反弹步伐,并且越来越多的看跌策略师转向看涨阵营。此外,美股市场上甚至存在这样一种观点:无论AI泡沫是否存在,美股科技股估值都有非常充裕的扩张空间。Piper Sandler策略师Michael Kantrowitz可谓是2023年华尔街最看空美国股市的策略师,2023年该策略师甚至看跌美股至3225点,然而标普500指数在2023年以“技术性牛市”打脸Kantrowitz,近期该分析师已经将标普500指数的预期大幅上调至5250点。来自美国银行的明星策略师萨勃拉曼尼亚(Savita Subramanian)将该机构对于标普500指数的年终目标上调至5400点,与华尔街最高水平持平。她加入了Yardeni Research的总裁兼创始人埃德•亚德尼(Ed Yardeni)和瑞银集团(UBS Group AG)的知名策略师乔纳森•戈卢布(Jonathan Golub)的行列,这两位看涨美股的策略师都对截至年底的美股前景持相同的积极看法,看涨至5400点这一乐观点位。随着美股大幅上涨引发与过去泡沫时期的全面对比,国际大行$法国兴业银行(0J6Y.UK)$的策略师们表示,强劲的业绩和美国经济重新加速的迹象表明这种涨势是合理的。该行的美股策略主管卡布拉(Manish Kabra)领导的团队在近日发布的一份报告中写道:“我们认为当前涨势更多由理性乐观而不是非理性繁荣所推动。”策略师提到的“好于预期”的企业盈利广度、新利润周期高点以及全球领先指标好转。关于当前美股科技股是否已经处于泡沫之中,卡布拉领导的法兴银行策略师们则表示,如果套用1999年互联网泡沫顶峰时期的各项数据,标普500指数需要升至至少6250点才能与当时非理性繁荣周期的“科技股泡沫”水平相提并论,相比之下美股最新收于5218.19点。此外,卡布拉领导的法兴银行策略师们将其对标普500指数在2024年底的目标点位由4750点上调至5500点,策略师们表示,在企业盈利前景改善和人工智能热潮的背景下,美国股市创纪录的上涨势头可谓不可阻挡。来自华尔街大行高盛的策略师们重申标普500指数年终目标将在5200点,但策略师们认为英伟达等大型科技公司业绩持续强劲将推动科技股持续上涨,进而可能将该基准指数推高至6000点。“我们最乐观的预测点位将是标普500指数从目前的水平上涨约15%,到年底达到6000点。”高盛策略师们在上周五发布的一份研报中表示。巴克莱银行可谓是华尔街最看好美股后市的投资机构之一。将该机构对美股基准指数——标普500指数的年底目标价从4800点大幅上调至5300点,主要因预期美股将继续受益于大型科技公司的丰厚盈利数据和美国经济在市场意料之外的优异表现。巴克莱在报告中还指出,如果大型科技公司的核心业绩数据延续远超预期的强劲表现,那么该机构认为标普500指数今年年末将有可能达到6050点。","news_type":1},"isVote":1,"tweetType":1,"viewCount":871,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":273375960932488,"gmtCreate":1707789504088,"gmtModify":1707792659343,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/ARM\">$ARM Holdings Ltd(ARM)$</a> ","listText":"<a href=\"https://laohu8.com/S/ARM\">$ARM Holdings Ltd(ARM)$</a> ","text":"$ARM Holdings Ltd(ARM)$","images":[{"img":"https://static.tigerbbs.com/456e0de3c10f39ca549d71a7e6ffb5f9","width":"981","height":"1637"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/273375960932488","isVote":1,"tweetType":1,"viewCount":546,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"EN","totalScore":0},{"id":268364432506984,"gmtCreate":1706541539118,"gmtModify":1706541540423,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/268364432506984","repostId":"1173594683","repostType":2,"repost":{"id":"1173594683","pubTimestamp":1706540883,"share":"https://www.laohu8.com/m/news/1173594683?lang=&edition=full","pubTime":"2024-01-29 23:08","market":"us","language":"zh","title":"当下全球市场最大规模的交易,少人知晓、牵一发动全身!","url":"https://stock-news.laohu8.com/highlight/detail?id=1173594683","media":"华尔街见闻","summary":"当前基差交易的美债持仓规模可能已超过1万亿美元。","content":"<html><head></head><body><p>曾让美国监管“夜不能寐”的基差交易,或许会在今年成为美国金融体系“流动性风险”的导火索。</p><p style=\"text-align: justify;\">1月26日<strong>,</strong>曾任Elliott 资产管理公司投资组合经理和瑞银债券策略师的Meyrick Chapman发文称,对冲基金的美债基差交易(利用美国国债期货和现货市场之间的价差获利的交易策略)“卷土重来”,<strong>当前基差交易的美债持仓规模可能已超过1万亿美元</strong>:</p><blockquote><p style=\"text-align: justify;\">有两种方法可用的方法来衡量基差交易的规模。第一种是观察付款交割(DVP)回购市场的交易变化。</p><p style=\"text-align: justify;\">第二种是美国商品期货交易委员会(CFTC)每周发布交易商承诺(COT)报告,这份报告详细介绍了期货投资者类型的持仓规模。</p></blockquote><p style=\"text-align: justify;\">Chapman认为,如果美联储在5月底已开始因基差交易规模感到担忧,那么自那以后杠杆基金对部分美国国债期货的净空头头寸已经显著增加:</p><blockquote><p style=\"text-align: justify;\">自2023年5月以来,2年期国债的期货空头增加了35%,5年期增加了26%,10年期增加了7%,30年期增加了惊人的66%。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/511c32f8169c617b0265c72381365c33\" tg-width=\"640\" tg-height=\"385\"/></p></blockquote><p style=\"text-align: justify;\">这也是为什么,如果对冲基金的基差交易逆转,对金融体系的影响将是系统性的:</p><blockquote><p style=\"text-align: justify;\">在美联储持续缩表、美债供过于求的情况下,<strong>当前市场中并没有哪个投资人能够平稳吸纳对冲基金规模庞大的持仓量。</strong></p><p style=\"text-align: justify;\">一旦基差交易的美债现货多头抛售美债,将严重消耗市场做市商(主要为纽约联储一级交易商)的流动性储备。交易商居于美元流动性供给的核心,同时牵动多个市场(包括美国国债、回购、机构MBS、企业债、地方政府债券等等)。</p></blockquote><h2 id=\"id_2272433666\" style=\"text-align: start;\">基差交易的美债持仓规模可能已超过1万亿美元</h2><p style=\"text-align: justify;\">Chapman指出,基差交易很可能是当前全球市场最大规模的交易,当前基差交易的美债持仓规模可能已超过1万亿美元,这应该让美国金融监管进一步警觉,流动性风险正在攀升。</p><p style=\"text-align: justify;\">过去一年,对冲基金正大量参与美国国债现货与期货市场的基差套利交易,并导致国债期货合约的空头头寸达到历史新高,市场担忧新一轮美债市场动荡。</p><p style=\"text-align: justify;\">那么基差交易的规模到底有多大,一般而言,基差交易涉及到美国国债现货、期货和回购三个市场:</p><blockquote><p style=\"text-align: justify;\">当国债期货价格相对于现货债券溢价时,常见的相对价值交易策略包括卖出期货远期,建立期货空头头寸,同时买入债券(现货市场多头头寸),做多现券的资金一般来自于回购市场(国债通过回购市场质押变现),并不断将回购滚续展期,直到期货交割。这种交易能产生利润,因为期货和现货价格最终会在期货合约到期日趋同。</p><p style=\"text-align: justify;\">由于基差通常很窄,<strong>投资者需要通过非常高的杠杆来提高利润,即投入很少的自有资本,其余资金来源全靠抵押品来借贷。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/31c74854b35f3ce99c497ceb49d5aea4\" tg-width=\"640\" tg-height=\"288\"/></p></blockquote><p style=\"text-align: justify;\">Chapman在文章中指出,目前没有确切的数据显示对冲基金参与美债基差套利交易的总规模,但美联储此前曾指出,对冲基金几乎完全通过两个场所进行回购借款:通过FICC付款交割(DVP)服务清算的双边国债回购交易,以及非中央清算的双边回购市场(NCCBR)。</p><p style=\"text-align: justify;\">从这两部分分别来看,首先判断对<strong>冲基金通过回购市场的融资量(DVP),</strong>Chapman称,美联储的报告指出,<strong>DVP和美债持仓量高度相关, 对冲基金回购净借款(DVP)与美债持仓量同步上行:</strong></p><blockquote><p style=\"text-align: justify;\">根据商品期货交易委员会(CFTC)提供的金融期货交易者数据和金融研究办公室(OFR)提供的清算回购数据来看,2022.10.4-2023.5.9期间,<strong>对冲基金在担保部分的回购借款增加了1200亿美元</strong>,从1140亿美元增至2330亿美元。</p></blockquote><p style=\"text-align: justify;\">Chapman指出,基差交易的规模其实比DVP数据显示高得多,因此这就要涉及到衡量对冲基金规模的另一个标准——期货市场<strong>:</strong></p><blockquote><p style=\"text-align: justify;\">在2022.10.4-2023.5.9期间,对冲基金在2年期、5年期和10年期合约上的期货空头头寸增加了4110亿美元,总额接近7150亿美元。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f283fe0c274c04df544ad53f4bc8e5e2\" tg-width=\"640\" tg-height=\"196\"/></p></blockquote><p style=\"text-align: justify;\">Chapman称,<strong>这表明基差交易中只有三分之一的资金来自DVP。</strong></p><p style=\"text-align: justify;\">与此同时,Chapman强调,按照金融研究办公室(OFR)在2022年8月的说法:在2019年12月至2021年9月,通过FICC的DVP服务清算的只占冲基金回购交易的8%,<strong>其余部分很可能主要通过非中央清算的双边回购交易。而关于非中央清算的双边市场,没有准确数据源。</strong></p><p style=\"text-align: justify;\">Chapman指出,当前DVP报告的日均交易量约为1.5万亿美元,一个不太疯狂的猜测是,大约三分之一的日交易量可能为基差交易中的杠杆账户提供资金有关,<strong>这一数据已经是2023年5月联储报告中交易量的两倍</strong>:</p><blockquote><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b3a7c08b2f70cf1437cd288b72f5a725\" tg-width=\"640\" tg-height=\"385\"/></p></blockquote><p style=\"text-align: justify;\">而更需要注意的是,Chapman称,正如上述OFR报告所称,还有相当大基差交易资金是<strong>非中央清算的双边回购市场(NCCBR)所提供的,因此如果</strong>本轮美债基差套利交易逆转,美债市场或面临动荡。</p><h2 id=\"id_2729114370\" style=\"text-align: start;\">流动性面临枯竭?</h2><p style=\"text-align: justify;\">华尔街见闻此前提及,当前或许最严重的问题在于,在非中央清算的双边回购市场中,<strong>为基差交易提供资金的正是货币市场基金在RRP的现金:<br/></strong></p><blockquote><p style=\"text-align: justify;\">这将美联储的资产负债表,货币市场基金、私人回购市场,通过基差交易,与当前仍有大量发行需求的美债市场串联到了一起。</p><p style=\"text-align: justify;\">因此,与其说要等到逆回购耗尽后,银行准备金回落才会引发流动性问题,迫使美联储停止QT,一旦ON RRP耗尽,基差交易缺少私人融资支持,那么交易的高杠杆很可能导致流动性问题在金融体系中迅速的扩散,债券市场或许也将承受的严重波动。 </p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/69c57d0d2d39c0976e8476e12cdeb702\" tg-width=\"550\" tg-height=\"520\"/></p></blockquote><p style=\"text-align: justify;\">Redburn Atlantic首席经济学家Melissa Davies高呼,对冲基金将成为快速降低市场流动性的“导火索”,美联储即便冒着通胀卷土重来的风险,也要在未来几个月内结束QT并重启QE。</p><p style=\"text-align: justify;\">Davies指出,RRP资助了对冲基金“基差交易”,这也使得一旦ON RRP耗尽,对冲基金没有了后备力量的支持,其就会从美国国债市场流动性供给者变身需求者,可能会导致流动性问题在金融体系中更快扩散。</p></body></html>","source":"live_wallstreetcn","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>当下全球市场最大规模的交易,少人知晓、牵一发动全身!</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n当下全球市场最大规模的交易,少人知晓、牵一发动全身!\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-01-29 23:08 北京时间 <a href=https://wallstreetcn.com/articles/3707458><strong>华尔街见闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>曾让美国监管“夜不能寐”的基差交易,或许会在今年成为美国金融体系“流动性风险”的导火索。1月26日,曾任Elliott 资产管理公司投资组合经理和瑞银债券策略师的Meyrick Chapman发文称,对冲基金的美债基差交易(利用美国国债期货和现货市场之间的价差获利的交易策略)“卷土重来”,当前基差交易的美债持仓规模可能已超过1万亿美元:有两种方法可用的方法来衡量基差交易的规模。第一种是观察付款交割...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3707458\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/cadcfb88697d09bb90cb85e829df2277","relate_stocks":{},"source_url":"https://wallstreetcn.com/articles/3707458","is_english":false,"share_image_url":"https://static.laohu8.com/cc96873d3d23ee6ac10685520df9c100","article_id":"1173594683","content_text":"曾让美国监管“夜不能寐”的基差交易,或许会在今年成为美国金融体系“流动性风险”的导火索。1月26日,曾任Elliott 资产管理公司投资组合经理和瑞银债券策略师的Meyrick Chapman发文称,对冲基金的美债基差交易(利用美国国债期货和现货市场之间的价差获利的交易策略)“卷土重来”,当前基差交易的美债持仓规模可能已超过1万亿美元:有两种方法可用的方法来衡量基差交易的规模。第一种是观察付款交割(DVP)回购市场的交易变化。第二种是美国商品期货交易委员会(CFTC)每周发布交易商承诺(COT)报告,这份报告详细介绍了期货投资者类型的持仓规模。Chapman认为,如果美联储在5月底已开始因基差交易规模感到担忧,那么自那以后杠杆基金对部分美国国债期货的净空头头寸已经显著增加:自2023年5月以来,2年期国债的期货空头增加了35%,5年期增加了26%,10年期增加了7%,30年期增加了惊人的66%。这也是为什么,如果对冲基金的基差交易逆转,对金融体系的影响将是系统性的:在美联储持续缩表、美债供过于求的情况下,当前市场中并没有哪个投资人能够平稳吸纳对冲基金规模庞大的持仓量。一旦基差交易的美债现货多头抛售美债,将严重消耗市场做市商(主要为纽约联储一级交易商)的流动性储备。交易商居于美元流动性供给的核心,同时牵动多个市场(包括美国国债、回购、机构MBS、企业债、地方政府债券等等)。基差交易的美债持仓规模可能已超过1万亿美元Chapman指出,基差交易很可能是当前全球市场最大规模的交易,当前基差交易的美债持仓规模可能已超过1万亿美元,这应该让美国金融监管进一步警觉,流动性风险正在攀升。过去一年,对冲基金正大量参与美国国债现货与期货市场的基差套利交易,并导致国债期货合约的空头头寸达到历史新高,市场担忧新一轮美债市场动荡。那么基差交易的规模到底有多大,一般而言,基差交易涉及到美国国债现货、期货和回购三个市场:当国债期货价格相对于现货债券溢价时,常见的相对价值交易策略包括卖出期货远期,建立期货空头头寸,同时买入债券(现货市场多头头寸),做多现券的资金一般来自于回购市场(国债通过回购市场质押变现),并不断将回购滚续展期,直到期货交割。这种交易能产生利润,因为期货和现货价格最终会在期货合约到期日趋同。由于基差通常很窄,投资者需要通过非常高的杠杆来提高利润,即投入很少的自有资本,其余资金来源全靠抵押品来借贷。Chapman在文章中指出,目前没有确切的数据显示对冲基金参与美债基差套利交易的总规模,但美联储此前曾指出,对冲基金几乎完全通过两个场所进行回购借款:通过FICC付款交割(DVP)服务清算的双边国债回购交易,以及非中央清算的双边回购市场(NCCBR)。从这两部分分别来看,首先判断对冲基金通过回购市场的融资量(DVP),Chapman称,美联储的报告指出,DVP和美债持仓量高度相关, 对冲基金回购净借款(DVP)与美债持仓量同步上行:根据商品期货交易委员会(CFTC)提供的金融期货交易者数据和金融研究办公室(OFR)提供的清算回购数据来看,2022.10.4-2023.5.9期间,对冲基金在担保部分的回购借款增加了1200亿美元,从1140亿美元增至2330亿美元。Chapman指出,基差交易的规模其实比DVP数据显示高得多,因此这就要涉及到衡量对冲基金规模的另一个标准——期货市场:在2022.10.4-2023.5.9期间,对冲基金在2年期、5年期和10年期合约上的期货空头头寸增加了4110亿美元,总额接近7150亿美元。Chapman称,这表明基差交易中只有三分之一的资金来自DVP。与此同时,Chapman强调,按照金融研究办公室(OFR)在2022年8月的说法:在2019年12月至2021年9月,通过FICC的DVP服务清算的只占冲基金回购交易的8%,其余部分很可能主要通过非中央清算的双边回购交易。而关于非中央清算的双边市场,没有准确数据源。Chapman指出,当前DVP报告的日均交易量约为1.5万亿美元,一个不太疯狂的猜测是,大约三分之一的日交易量可能为基差交易中的杠杆账户提供资金有关,这一数据已经是2023年5月联储报告中交易量的两倍:而更需要注意的是,Chapman称,正如上述OFR报告所称,还有相当大基差交易资金是非中央清算的双边回购市场(NCCBR)所提供的,因此如果本轮美债基差套利交易逆转,美债市场或面临动荡。流动性面临枯竭?华尔街见闻此前提及,当前或许最严重的问题在于,在非中央清算的双边回购市场中,为基差交易提供资金的正是货币市场基金在RRP的现金:这将美联储的资产负债表,货币市场基金、私人回购市场,通过基差交易,与当前仍有大量发行需求的美债市场串联到了一起。因此,与其说要等到逆回购耗尽后,银行准备金回落才会引发流动性问题,迫使美联储停止QT,一旦ON RRP耗尽,基差交易缺少私人融资支持,那么交易的高杠杆很可能导致流动性问题在金融体系中迅速的扩散,债券市场或许也将承受的严重波动。 Redburn Atlantic首席经济学家Melissa Davies高呼,对冲基金将成为快速降低市场流动性的“导火索”,美联储即便冒着通胀卷土重来的风险,也要在未来几个月内结束QT并重启QE。Davies指出,RRP资助了对冲基金“基差交易”,这也使得一旦ON RRP耗尽,对冲基金没有了后备力量的支持,其就会从美国国债市场流动性供给者变身需求者,可能会导致流动性问题在金融体系中更快扩散。","news_type":1},"isVote":1,"tweetType":1,"viewCount":897,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":264305587380536,"gmtCreate":1705544880326,"gmtModify":1705544881668,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"哈哈哈","listText":"哈哈哈","text":"哈哈哈","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/264305587380536","repostId":"1148746601","repostType":2,"repost":{"id":"1148746601","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1705544621,"share":"https://www.laohu8.com/m/news/1148746601?lang=&edition=full","pubTime":"2024-01-18 10:23","market":"sh","language":"zh","title":"沪指跌破2800点,刷新2020年4月以来新低","url":"https://stock-news.laohu8.com/highlight/detail?id=1148746601","media":"老虎资讯综合","summary":"1月18日电,指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。","content":"<html><head></head><body><p>1月18日,A股三大指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a50c638415e16e5983160bcd34f1c8d8\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>机构解读后市</strong></p><p style=\"text-align: start;\">平安证券表示,当前A股市场已经调整至底部,宏观调控政策宽松有望支撑基本面和情绪的修复,同时2023年行情提示当前权益市场的投资逻辑逐步转变至自下而上,结构性机会在增加,建议把握新兴产业边际新变化对投资机会的指引主线:一是科技成长主线(汽车/TMT);二是医药成长主线(创新药/出口链)。</p><p style=\"text-align: start;\">中邮证券表示,展望后市,保持定力,守得云开见月明。当下仍需保持定力,在不确定因素消散之后再积极参与。短期仍侧重防御属性,建议增加高股息个股仓位,可博弈航运和能源。短期由于红海航道受阻,国际货运价格攀升,全球石油运输受阻,可博弈航运和能源方面的机会。中长期来看,从深度参加全球产业链分工和产业周期趋势的角度出发,推荐医药生物、消费电子和汽车零部件。</p><p>中泰证券投顾邓天认为,此次下跌并未有实质因素影响。昨日尾盘及今日早盘有恐慌盘及杠杆资金平仓迹象。市场目前已处于估值历史低位,非理性抛售或在技术上造成破位,但投资者应耐心等待价值回归。操作上,可选择筹码结构上机构介入较少的标的。建议关注公共事业及有注入地方国企资产预期的方向。</p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>沪指跌破2800点,刷新2020年4月以来新低</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n沪指跌破2800点,刷新2020年4月以来新低\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2024-01-18 10:23</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>1月18日,A股三大指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a50c638415e16e5983160bcd34f1c8d8\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>机构解读后市</strong></p><p style=\"text-align: start;\">平安证券表示,当前A股市场已经调整至底部,宏观调控政策宽松有望支撑基本面和情绪的修复,同时2023年行情提示当前权益市场的投资逻辑逐步转变至自下而上,结构性机会在增加,建议把握新兴产业边际新变化对投资机会的指引主线:一是科技成长主线(汽车/TMT);二是医药成长主线(创新药/出口链)。</p><p style=\"text-align: start;\">中邮证券表示,展望后市,保持定力,守得云开见月明。当下仍需保持定力,在不确定因素消散之后再积极参与。短期仍侧重防御属性,建议增加高股息个股仓位,可博弈航运和能源。短期由于红海航道受阻,国际货运价格攀升,全球石油运输受阻,可博弈航运和能源方面的机会。中长期来看,从深度参加全球产业链分工和产业周期趋势的角度出发,推荐医药生物、消费电子和汽车零部件。</p><p>中泰证券投顾邓天认为,此次下跌并未有实质因素影响。昨日尾盘及今日早盘有恐慌盘及杠杆资金平仓迹象。市场目前已处于估值历史低位,非理性抛售或在技术上造成破位,但投资者应耐心等待价值回归。操作上,可选择筹码结构上机构介入较少的标的。建议关注公共事业及有注入地方国企资产预期的方向。</p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/342bdaa24f11a7e9af00a6ff6b22a4db","relate_stocks":{"159982":"中证500","399001":"深证成指","399006":"创业板指","YANG":"三倍做空富时中国ETF-Direxion","YINN":"三倍做多富时中国ETF-Direxion","000001.SH":"上证指数"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1148746601","content_text":"1月18日,A股三大指数持续走低,沪指跌近1.2%,盘中跌破2800点,刷新2020年4月以来新低。酒店旅游、食品消费、油气、农业等方向跌幅居前,沪深京三市下跌个股近4800只。机构解读后市平安证券表示,当前A股市场已经调整至底部,宏观调控政策宽松有望支撑基本面和情绪的修复,同时2023年行情提示当前权益市场的投资逻辑逐步转变至自下而上,结构性机会在增加,建议把握新兴产业边际新变化对投资机会的指引主线:一是科技成长主线(汽车/TMT);二是医药成长主线(创新药/出口链)。中邮证券表示,展望后市,保持定力,守得云开见月明。当下仍需保持定力,在不确定因素消散之后再积极参与。短期仍侧重防御属性,建议增加高股息个股仓位,可博弈航运和能源。短期由于红海航道受阻,国际货运价格攀升,全球石油运输受阻,可博弈航运和能源方面的机会。中长期来看,从深度参加全球产业链分工和产业周期趋势的角度出发,推荐医药生物、消费电子和汽车零部件。中泰证券投顾邓天认为,此次下跌并未有实质因素影响。昨日尾盘及今日早盘有恐慌盘及杠杆资金平仓迹象。市场目前已处于估值历史低位,非理性抛售或在技术上造成破位,但投资者应耐心等待价值回归。操作上,可选择筹码结构上机构介入较少的标的。建议关注公共事业及有注入地方国企资产预期的方向。","news_type":1},"isVote":1,"tweetType":1,"viewCount":870,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":251292649640160,"gmtCreate":1702387934592,"gmtModify":1702387935970,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"nv","listText":"nv","text":"nv","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/251292649640160","repostId":"251335149711664","repostType":1,"repost":{"id":251335149711664,"gmtCreate":1702369234340,"gmtModify":1702369307359,"author":{"id":"10000000000010366","authorId":"10000000000010366","name":"半导体Bot","avatar":"https://static.tigerbbs.com/8d0e9f632cb989ffc1282913c1284971","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"10000000000010366","idStr":"10000000000010366"},"themes":[],"title":"九头蛇英伟达,还有多久才会被拉下宝座?","htmlText":"今年以来,风头最盛的科技公司无疑是英伟达,这家位于美国的跨国科技公司可以说是当今世界上最重要的公司之一。但对于普通人来说,过去除了PC消费者和游戏玩家外,许多人甚至都知道这公司是做什么的。今天我们来复盘一下英伟达的成功史,聊聊这家公司在当下能带给我们哪些启示。创立伊始英伟达成立于1993年初,由黄仁勋,Chris Malachowsky,Curtis Priem三人在美国东圣何塞的一家路边小餐馆创立。相比于创立于1969年的AMD,英伟达其实是一家更为年轻的公司。图片但是三位创始人都拥有深厚的相关行业背景。黄仁勋是中国台湾人,五岁时全家移居到了美国。后来成为了一名电气工程师,曾任LSI Logic 硬件总监和AMD微处理器设计师。Chris Malachowsky 是曾在Sun Microsystems工作的工程师;Curtis Priem曾任IBM和 Sun Microsystems的高级工程师和图形芯片设计师。创立伊始,三人就认为下一波计算浪潮的正确方向是基于图形计算的加速计算,因为它可以解决通用计算无法解决的问题。举例来说,过去的电脑游戏完全依赖CPU进行运算。因为当时游戏主要是在MS-DOS系统下运行,图像简陋,大部分时间是命令行交互。然而,随着游戏技术的不断发展和计算机图形学的进步,越来越多的游戏逐渐从MS-DOS(命令行交互系统)转向Windows(图形交互系统)。随之而来的是视频游戏的数量急剧增加。图片他们当时判断,这类视频游戏在未来将会拥有广阔的市场,而视频游戏所需的图形处理,特别是3D图形,需要大量的浮点数学计算,如何给视频游戏绘制图形,提高动态场景下表现力就是图形计算问题中最具挑战性的问题之一。而CPU中的数学协处理器明显无法满足这些需求。所以电脑图像等图形计算越来越需要专用的图形处理模块。后来GPU的成功也证明了三人对未来的惊人洞察力。视频游戏在未来成","listText":"今年以来,风头最盛的科技公司无疑是英伟达,这家位于美国的跨国科技公司可以说是当今世界上最重要的公司之一。但对于普通人来说,过去除了PC消费者和游戏玩家外,许多人甚至都知道这公司是做什么的。今天我们来复盘一下英伟达的成功史,聊聊这家公司在当下能带给我们哪些启示。创立伊始英伟达成立于1993年初,由黄仁勋,Chris Malachowsky,Curtis Priem三人在美国东圣何塞的一家路边小餐馆创立。相比于创立于1969年的AMD,英伟达其实是一家更为年轻的公司。图片但是三位创始人都拥有深厚的相关行业背景。黄仁勋是中国台湾人,五岁时全家移居到了美国。后来成为了一名电气工程师,曾任LSI Logic 硬件总监和AMD微处理器设计师。Chris Malachowsky 是曾在Sun Microsystems工作的工程师;Curtis Priem曾任IBM和 Sun Microsystems的高级工程师和图形芯片设计师。创立伊始,三人就认为下一波计算浪潮的正确方向是基于图形计算的加速计算,因为它可以解决通用计算无法解决的问题。举例来说,过去的电脑游戏完全依赖CPU进行运算。因为当时游戏主要是在MS-DOS系统下运行,图像简陋,大部分时间是命令行交互。然而,随着游戏技术的不断发展和计算机图形学的进步,越来越多的游戏逐渐从MS-DOS(命令行交互系统)转向Windows(图形交互系统)。随之而来的是视频游戏的数量急剧增加。图片他们当时判断,这类视频游戏在未来将会拥有广阔的市场,而视频游戏所需的图形处理,特别是3D图形,需要大量的浮点数学计算,如何给视频游戏绘制图形,提高动态场景下表现力就是图形计算问题中最具挑战性的问题之一。而CPU中的数学协处理器明显无法满足这些需求。所以电脑图像等图形计算越来越需要专用的图形处理模块。后来GPU的成功也证明了三人对未来的惊人洞察力。视频游戏在未来成","text":"今年以来,风头最盛的科技公司无疑是英伟达,这家位于美国的跨国科技公司可以说是当今世界上最重要的公司之一。但对于普通人来说,过去除了PC消费者和游戏玩家外,许多人甚至都知道这公司是做什么的。今天我们来复盘一下英伟达的成功史,聊聊这家公司在当下能带给我们哪些启示。创立伊始英伟达成立于1993年初,由黄仁勋,Chris Malachowsky,Curtis Priem三人在美国东圣何塞的一家路边小餐馆创立。相比于创立于1969年的AMD,英伟达其实是一家更为年轻的公司。图片但是三位创始人都拥有深厚的相关行业背景。黄仁勋是中国台湾人,五岁时全家移居到了美国。后来成为了一名电气工程师,曾任LSI Logic 硬件总监和AMD微处理器设计师。Chris Malachowsky 是曾在Sun Microsystems工作的工程师;Curtis Priem曾任IBM和 Sun Microsystems的高级工程师和图形芯片设计师。创立伊始,三人就认为下一波计算浪潮的正确方向是基于图形计算的加速计算,因为它可以解决通用计算无法解决的问题。举例来说,过去的电脑游戏完全依赖CPU进行运算。因为当时游戏主要是在MS-DOS系统下运行,图像简陋,大部分时间是命令行交互。然而,随着游戏技术的不断发展和计算机图形学的进步,越来越多的游戏逐渐从MS-DOS(命令行交互系统)转向Windows(图形交互系统)。随之而来的是视频游戏的数量急剧增加。图片他们当时判断,这类视频游戏在未来将会拥有广阔的市场,而视频游戏所需的图形处理,特别是3D图形,需要大量的浮点数学计算,如何给视频游戏绘制图形,提高动态场景下表现力就是图形计算问题中最具挑战性的问题之一。而CPU中的数学协处理器明显无法满足这些需求。所以电脑图像等图形计算越来越需要专用的图形处理模块。后来GPU的成功也证明了三人对未来的惊人洞察力。视频游戏在未来成","images":[{"img":"https://static.tigerbbs.com/00f2084105ade9ebc05d88d007c471c7","width":"618","height":"336"},{"img":"https://static.tigerbbs.com/0f73172ae8eae6cc95eb9ae68f62dd87","width":"1080","height":"675"},{"img":"https://static.tigerbbs.com/6fd5684be7deeac654ad1ba45dd3ba99","width":"1080","height":"699"}],"top":1,"highlighted":1,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/251335149711664","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":12,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":186,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":251209405743208,"gmtCreate":1702338642609,"gmtModify":1702338644029,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"说说你对这篇新闻的看法...","listText":"说说你对这篇新闻的看法...","text":"说说你对这篇新闻的看法...","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/251209405743208","repostId":"2390885398","repostType":2,"isVote":1,"tweetType":1,"viewCount":780,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":244655775129888,"gmtCreate":1700744962684,"gmtModify":1700744964036,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/244655775129888","repostId":"2385143611","repostType":2,"repost":{"id":"2385143611","weMediaInfo":{"introduction":"经纬创投公众平台,创享汇,新闻发布官方平台","home_visible":1,"media_name":"经纬创投","id":"74","head_image":"https://static.tigerbbs.com/c6c12027b4d84f89b5da0a5de2093ad1"},"pubTimestamp":1700722680,"share":"https://www.laohu8.com/m/news/2385143611?lang=&edition=full","pubTime":"2023-11-23 14:58","market":"us","language":"zh","title":"OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?","url":"https://stock-news.laohu8.com/highlight/detail?id=2385143611","media":"经纬创投","summary":"最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:谁能被信任,来打开AI这个$潘多拉$魔盒?在这起Open AI的风波背后,这个问题依然值得我们重视。","content":"<html><head></head><body><p>最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:<strong>董事会到底为什么要突然驱逐Sam Altman?</strong></p><p>最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>发现可能威胁到人类,<strong>这个项目被称为“Q*”(Q-star)</strong>。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。</p><p>董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。</p><p>无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:<strong>谁能被信任,来打开AI这个<a href=\"https://laohu8.com/S/0NQC.UK\">潘多拉</a>魔盒?</strong></p><p>AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。</p><p>所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:<strong>是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。</strong>在这起Open AI的风波背后,这个问题依然值得我们重视。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/045399ec1243d0bdfac1235508850484\" title=\"随着语言模型规模的增长,新能力突然出现;图片来源:Google\" tg-width=\"1079\" tg-height=\"393\"/><span>随着语言模型规模的增长,新能力突然出现;图片来源:Google</span></p><p>“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“<strong>学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。</strong>”</p><p>70多年后,这则恐怖的论断成真了。<strong>大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。</strong><a href=\"https://laohu8.com/S/MSFT\">微软</a>在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?<strong>为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?</strong></p><p>微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……</p><p>搞清楚这些问题其实非常重要,<strong>短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。</strong></p><p><strong>长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>的<a href=\"https://laohu8.com/S/300024\">机器人</a>结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。</strong></p><p>目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,<strong>在文末的注释中会列出这些论文的简介与链接,</strong>供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:</p><p><strong>● 大语言模型令人震惊的理解和推理能力</strong></p><p><strong>● 当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>● 多大的模型规模会出现“涌现”?</strong></p><p><strong>● (附录:本文的论文注释与引用)</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5992222369ad402391979786b9535d32\" title=\"大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models\"/><span>大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</span></p><p><strong>1、大语言模型令人震惊的理解和推理能力</strong></p><p>最近几个月里,硅谷一夜之间出现了几百家应用层的<a href=\"https://laohu8.com/S/V03.SI\">创业公司</a>,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。</p><p>并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。<strong>这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。</strong></p><p>下面我们先列举一些<strong>GPT-4所表现出来的、令人震惊的理解和推理能力:</strong></p><p><img src=\"https://static.tigerbbs.com/3ec8279f39d648168b0617f4af7614c2\" alt=\"\"/>这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。</p><p>给GPT-4提问:你能解释一下作者想表达什么吗?</p><p>GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。</p><p><strong>上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/41e25bcca519475fb6194847629cf74e\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?</p><p>我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。</p><p>我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5849e896a8564c8191ffd628ecb1bdc8\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。</p><p><strong>这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。</strong></p><p><strong>为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。</strong>例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。</p><p>以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?<strong>Google在2022年做了一项重要的基准测试。</strong>研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。</p><p>这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。</p><p>BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。</p><p><strong>还有一些对大语言模型参数规模与性能之间联系的研究,</strong>比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。</p><p>这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。</p><p>还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,<strong>LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。</strong></p><p>目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:<strong>小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。</strong></p><p><strong>2、当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。</strong>在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。</p><p><img src=\"https://static.tigerbbs.com/061be27a983b491ea7f0817e4f9fb34c\" alt=\"\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8121528d65f54ebfad37d20d57a1ecf1\" title=\"近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research\"/><span>近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research</span></p><p><strong>当我们不断加大模型规模时,大语言模型出现了三种表现:</strong></p><p><strong>第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。</strong>从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ebd6d1103dda4ef9acd988b5d2e88f54\" title=\"知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models\"/><span>知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</span></p><p>如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,<strong>各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,</strong>这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。</p><p>另外,<strong>各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。</strong></p><p>世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。</p><p><img src=\"https://static.tigerbbs.com/8405960deda64487903a89e28fdeb607\" alt=\"\"/><em>一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。</em></p><p><em>图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT</em></p><p>更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。</p><p><img src=\"https://static.tigerbbs.com/dca373ac6ea541daa284372693e6bc99\" alt=\"\"/><em>这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。</em></p><p><em>图片来源:Transformer Feed-Forward Layers Are Key-Value Memories</em></p><p><strong>能证明大语言模型是有知识沉淀的,其实非常重要。</strong>OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。</p><p>在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。</p><p><strong>目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。</strong></p><p>另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。</p><p><img src=\"https://static.tigerbbs.com/64869901ee0745e085f571e6f6456cb9\" alt=\"\"/><em>当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models</em></p><p><strong>在上一步的基础上,第二类就是涌现出新能力。</strong>具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。<strong>但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。</strong>经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。</p><p><img src=\"https://static.tigerbbs.com/d3aaae883042412ca8ed4df001c65875\" alt=\"\"/><em>多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</em></p><p><strong>第三种表现是有些情况下,能力效果会呈现U型曲线。</strong>这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。</p><p><img src=\"https://static.tigerbbs.com/ebc9b80391b24fb182f03462fa251be1\" alt=\"\"/><em>图片来源:Google:Inverse scaling can become U-shaped</em></p><p>如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。</p><p>当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。</p><p><strong>3、两种被证明具备“涌现”的典型能力:</strong></p><p><strong>上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。</strong></p><p><strong>第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。</strong></p><p><strong>ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。</strong>这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。</p><p><strong>ICL对大语言模型能否泛化非常重要。</strong>在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。<strong>此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。</strong></p><p><img src=\"https://static.tigerbbs.com/afa4311a3e5846b58b304496187e9e5c\" alt=\"\"/><em>In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?</em></p><p>上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。</p><p>所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。<strong>在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。</strong></p><p>不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。</p><p>还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。</p><p>但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?</p><p>这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。</p><p><strong>第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。</strong></p><p>CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。</p><p><img src=\"https://static.tigerbbs.com/1cfcfc768c364892aee7148d7d0d990c\" alt=\"\"/>图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models</p><p>最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。</p><p>CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,<strong>开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。</strong></p><p>我们在上文分析过,通过<a href=\"https://laohu8.com/S/603138\">海量数据</a>训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。<strong>但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。</strong></p><p>所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。</p><p><img src=\"https://static.tigerbbs.com/8b2479a672f4498d908ab5aca11d58ae\" alt=\"\"/><em>使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p><img src=\"https://static.tigerbbs.com/e8a22dca3ba041bca7f47f1e065de4f0\" alt=\"\"/><em>使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p>如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。</p><p><img src=\"https://static.tigerbbs.com/518a43dc2a9f49f4a4350ad40c21e54b\" alt=\"\"/><em>图片来源:OpenAI:GPT-4 Technical Report</em></p><p><img src=\"https://static.tigerbbs.com/774f97cb97e740e484404bcca764b4fd\" alt=\"\"/><em>一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p><strong>不过目前大模型在复杂推理方面仍然有局限性。</strong>无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。</p><p>比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。</p><p><img src=\"https://static.tigerbbs.com/894714645285430fac5217b5510cbce6\" alt=\"\"/><em>图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4</em></p><p>但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”</p><p>于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。<strong>总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。</strong></p><p><strong>4、多大的模型规模会出现“涌现”?</strong></p><p>我们在上文分析了大模型在哪些任务中出现了涌现现象,<strong>紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?</strong></p><p><strong>根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。</strong></p><p>在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。</p><p><img src=\"https://static.tigerbbs.com/bfdb5cf247c243f281e6ed0b1bc6a651\" alt=\"\"/><em>ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p>而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。</p><p><img src=\"https://static.tigerbbs.com/4bd1c9fa45af4c5f808859a03a62a5c7\" alt=\"\"/>CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</p><p><strong>所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。</strong>例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。</p><p><strong>那么能不能把模型做小?</strong>我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。</p><p><strong>目前小模型的代表之一是DeepMind的Chinchilla,</strong>它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。</p><p>Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。</p><p>于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。</p><p><img src=\"https://static.tigerbbs.com/a507583f14a94d0790c80cc3ac982593\" alt=\"\"/><em>各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language Models</em></p><p><img src=\"https://static.tigerbbs.com/e3ca672bf7ad4cf7a24a55ed565a5999\" alt=\"\"/>Chinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。</p><p>如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。</p><p><img src=\"https://static.tigerbbs.com/b8c2c23a300a4c6db65b6ea1b077aa8b\" alt=\"\"/>图片来源:DeepMind:Training Compute-Optimal Language Models</p><p>在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。</p><p><strong>这里就涉及到了一个核心问题——算力如何分配?</strong>我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。<strong>那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?</strong></p><p>最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。</p><p>OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。<strong>OpenAI的结论是优先增加模型参数,然后才是训练数据量。</strong>假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。</p><p>DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,<strong>DeepMind认为训练数据量也很重要,不亚于模型参数。</strong></p><p>基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。</p><p><strong>另一个“小”模型的例子是Meta推出的LLaMA。</strong>LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。</p><p>从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。</p><p><strong>Meta更进一步的是,把推理成本也纳入进来。</strong>Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。</p><p>所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。</p><p>那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?</p><p><img src=\"https://static.tigerbbs.com/6f3802584c6e43d0a0706d5ecbb28c89\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p><img src=\"https://static.tigerbbs.com/be53cf0e950d45e6a82643a137819d78\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p>上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,<strong>这证明了更小的参数规模,也能产生涌现能力。</strong></p><p>以上这些研究都很有意义,<strong>我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。</strong></p><p><strong>那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。</strong></p><p>一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。</p><p>涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。</p><p>ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。</p><p>微软在GPT-4论文中写道:</p><ul style=\"\"><li><p><em>我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?</em><strong><em>为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?</em></strong></p></li><li><p><em>这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,</em><strong><em>关键方向就是对大语言模型涌现现象的持续研究。</em></strong></p></li><li><p><em>阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,</em><strong><em>这个挑战在今天已经突然变得重要和紧迫。</em></strong></p></li></ul><p>1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:</p><ul style=\"\"><li><p><em>机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;</em></p></li><li><p><em>在不违反第一定律的前提下,机器人必须服从人给予它的命令;</em></p></li><li><p><em>机器人在不违反第一、第二定律的情况下要尽力保护自己。</em></p></li></ul><p>当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。<strong>我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。</strong></p><p>目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。</p><p><strong>在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。</strong></p><p>纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。<strong>如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。</strong></p><p><img src=\"https://static.tigerbbs.com/fe5a376e68b64e5d82e70cf015a9cc38\" alt=\"\"/><em>Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。</em></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>OpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nOpenAI风波背后,神秘项目“Q*”浮出水面,谁打开了大模型的潘多拉魔盒?\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/74\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/c6c12027b4d84f89b5da0a5de2093ad1);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">经纬创投 </p>\n<p class=\"h-time\">2023-11-23 14:58</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:<strong>董事会到底为什么要突然驱逐Sam Altman?</strong></p><p>最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>发现可能威胁到人类,<strong>这个项目被称为“Q*”(Q-star)</strong>。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。</p><p>董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。</p><p>无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:<strong>谁能被信任,来打开AI这个<a href=\"https://laohu8.com/S/0NQC.UK\">潘多拉</a>魔盒?</strong></p><p>AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。</p><p>所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:<strong>是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。</strong>在这起Open AI的风波背后,这个问题依然值得我们重视。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/045399ec1243d0bdfac1235508850484\" title=\"随着语言模型规模的增长,新能力突然出现;图片来源:Google\" tg-width=\"1079\" tg-height=\"393\"/><span>随着语言模型规模的增长,新能力突然出现;图片来源:Google</span></p><p>“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“<strong>学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。</strong>”</p><p>70多年后,这则恐怖的论断成真了。<strong>大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。</strong><a href=\"https://laohu8.com/S/MSFT\">微软</a>在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?<strong>为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?</strong></p><p>微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……</p><p>搞清楚这些问题其实非常重要,<strong>短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。</strong></p><p><strong>长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者<a href=\"https://laohu8.com/S/TSLA\">特斯拉</a>的<a href=\"https://laohu8.com/S/300024\">机器人</a>结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。</strong></p><p>目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,<strong>在文末的注释中会列出这些论文的简介与链接,</strong>供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:</p><p><strong>● 大语言模型令人震惊的理解和推理能力</strong></p><p><strong>● 当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>● 多大的模型规模会出现“涌现”?</strong></p><p><strong>● (附录:本文的论文注释与引用)</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5992222369ad402391979786b9535d32\" title=\"大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models\"/><span>大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</span></p><p><strong>1、大语言模型令人震惊的理解和推理能力</strong></p><p>最近几个月里,硅谷一夜之间出现了几百家应用层的<a href=\"https://laohu8.com/S/V03.SI\">创业公司</a>,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。</p><p>并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。<strong>这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。</strong></p><p>下面我们先列举一些<strong>GPT-4所表现出来的、令人震惊的理解和推理能力:</strong></p><p><img src=\"https://static.tigerbbs.com/3ec8279f39d648168b0617f4af7614c2\" alt=\"\"/>这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。</p><p>给GPT-4提问:你能解释一下作者想表达什么吗?</p><p>GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。</p><p><strong>上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/41e25bcca519475fb6194847629cf74e\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?</p><p>我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。</p><p>我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5849e896a8564c8191ffd628ecb1bdc8\" title=\"黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft\"/><span>黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft</span></p><p>同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。</p><p><strong>这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。</strong></p><p><strong>为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。</strong>例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。</p><p>以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?<strong>Google在2022年做了一项重要的基准测试。</strong>研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。</p><p>这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。</p><p>BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。</p><p><strong>还有一些对大语言模型参数规模与性能之间联系的研究,</strong>比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。</p><p>这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。</p><p>还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,<strong>LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。</strong></p><p>目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:<strong>小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。</strong></p><p><strong>2、当我们加大模型规模时,出现的三种神奇表现</strong></p><p><strong>在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。</strong>在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。</p><p><img src=\"https://static.tigerbbs.com/061be27a983b491ea7f0817e4f9fb34c\" alt=\"\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8121528d65f54ebfad37d20d57a1ecf1\" title=\"近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research\"/><span>近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research</span></p><p><strong>当我们不断加大模型规模时,大语言模型出现了三种表现:</strong></p><p><strong>第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。</strong>从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ebd6d1103dda4ef9acd988b5d2e88f54\" title=\"知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models\"/><span>知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</span></p><p>如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,<strong>各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,</strong>这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。</p><p>另外,<strong>各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。</strong></p><p>世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。</p><p><img src=\"https://static.tigerbbs.com/8405960deda64487903a89e28fdeb607\" alt=\"\"/><em>一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。</em></p><p><em>图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT</em></p><p>更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。</p><p><img src=\"https://static.tigerbbs.com/dca373ac6ea541daa284372693e6bc99\" alt=\"\"/><em>这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。</em></p><p><em>图片来源:Transformer Feed-Forward Layers Are Key-Value Memories</em></p><p><strong>能证明大语言模型是有知识沉淀的,其实非常重要。</strong>OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。</p><p>在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。</p><p><strong>目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。</strong></p><p>另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。</p><p><img src=\"https://static.tigerbbs.com/64869901ee0745e085f571e6f6456cb9\" alt=\"\"/><em>当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models</em></p><p><strong>在上一步的基础上,第二类就是涌现出新能力。</strong>具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。<strong>但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。</strong>经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。</p><p><img src=\"https://static.tigerbbs.com/d3aaae883042412ca8ed4df001c65875\" alt=\"\"/><em>多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models</em></p><p><strong>第三种表现是有些情况下,能力效果会呈现U型曲线。</strong>这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。</p><p><img src=\"https://static.tigerbbs.com/ebc9b80391b24fb182f03462fa251be1\" alt=\"\"/><em>图片来源:Google:Inverse scaling can become U-shaped</em></p><p>如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。</p><p>当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。</p><p><strong>3、两种被证明具备“涌现”的典型能力:</strong></p><p><strong>上下文学习(ICL)和思维链(CoT)</strong></p><p><strong>目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。</strong></p><p><strong>第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。</strong></p><p><strong>ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。</strong>这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。</p><p><strong>ICL对大语言模型能否泛化非常重要。</strong>在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。<strong>此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。</strong></p><p><img src=\"https://static.tigerbbs.com/afa4311a3e5846b58b304496187e9e5c\" alt=\"\"/><em>In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?</em></p><p>上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。</p><p>所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。<strong>在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。</strong></p><p>不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。</p><p>还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。</p><p>但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?</p><p>这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。</p><p><strong>第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。</strong></p><p>CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。</p><p><img src=\"https://static.tigerbbs.com/1cfcfc768c364892aee7148d7d0d990c\" alt=\"\"/>图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models</p><p>最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。</p><p>CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,<strong>开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。</strong></p><p>我们在上文分析过,通过<a href=\"https://laohu8.com/S/603138\">海量数据</a>训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。<strong>但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。</strong></p><p>所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。</p><p><img src=\"https://static.tigerbbs.com/8b2479a672f4498d908ab5aca11d58ae\" alt=\"\"/><em>使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p><img src=\"https://static.tigerbbs.com/e8a22dca3ba041bca7f47f1e065de4f0\" alt=\"\"/><em>使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。</em></p><p>如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。</p><p><img src=\"https://static.tigerbbs.com/518a43dc2a9f49f4a4350ad40c21e54b\" alt=\"\"/><em>图片来源:OpenAI:GPT-4 Technical Report</em></p><p><img src=\"https://static.tigerbbs.com/774f97cb97e740e484404bcca764b4fd\" alt=\"\"/><em>一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p><strong>不过目前大模型在复杂推理方面仍然有局限性。</strong>无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。</p><p>比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。</p><p><img src=\"https://static.tigerbbs.com/894714645285430fac5217b5510cbce6\" alt=\"\"/><em>图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4</em></p><p>但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”</p><p>于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。<strong>总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。</strong></p><p><strong>4、多大的模型规模会出现“涌现”?</strong></p><p>我们在上文分析了大模型在哪些任务中出现了涌现现象,<strong>紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?</strong></p><p><strong>根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。</strong></p><p>在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。</p><p><img src=\"https://static.tigerbbs.com/bfdb5cf247c243f281e6ed0b1bc6a651\" alt=\"\"/><em>ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</em></p><p>而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。</p><p><img src=\"https://static.tigerbbs.com/4bd1c9fa45af4c5f808859a03a62a5c7\" alt=\"\"/>CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models</p><p><strong>所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。</strong>例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。</p><p><strong>那么能不能把模型做小?</strong>我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。</p><p><strong>目前小模型的代表之一是DeepMind的Chinchilla,</strong>它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。</p><p>Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。</p><p>于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。</p><p><img src=\"https://static.tigerbbs.com/a507583f14a94d0790c80cc3ac982593\" alt=\"\"/><em>各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language Models</em></p><p><img src=\"https://static.tigerbbs.com/e3ca672bf7ad4cf7a24a55ed565a5999\" alt=\"\"/>Chinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。</p><p>如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。</p><p><img src=\"https://static.tigerbbs.com/b8c2c23a300a4c6db65b6ea1b077aa8b\" alt=\"\"/>图片来源:DeepMind:Training Compute-Optimal Language Models</p><p>在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。</p><p><strong>这里就涉及到了一个核心问题——算力如何分配?</strong>我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。<strong>那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?</strong></p><p>最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。</p><p>OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。<strong>OpenAI的结论是优先增加模型参数,然后才是训练数据量。</strong>假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。</p><p>DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,<strong>DeepMind认为训练数据量也很重要,不亚于模型参数。</strong></p><p>基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。</p><p><strong>另一个“小”模型的例子是Meta推出的LLaMA。</strong>LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。</p><p>从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。</p><p><strong>Meta更进一步的是,把推理成本也纳入进来。</strong>Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。</p><p>所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。</p><p>那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?</p><p><img src=\"https://static.tigerbbs.com/6f3802584c6e43d0a0706d5ecbb28c89\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p><img src=\"https://static.tigerbbs.com/be53cf0e950d45e6a82643a137819d78\" alt=\"\"/><em>图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models</em></p><p>上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,<strong>这证明了更小的参数规模,也能产生涌现能力。</strong></p><p>以上这些研究都很有意义,<strong>我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。</strong></p><p><strong>那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。</strong></p><p>一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。</p><p>涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。</p><p>ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。</p><p>微软在GPT-4论文中写道:</p><ul style=\"\"><li><p><em>我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?</em><strong><em>为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?</em></strong></p></li><li><p><em>这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,</em><strong><em>关键方向就是对大语言模型涌现现象的持续研究。</em></strong></p></li><li><p><em>阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,</em><strong><em>这个挑战在今天已经突然变得重要和紧迫。</em></strong></p></li></ul><p>1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:</p><ul style=\"\"><li><p><em>机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;</em></p></li><li><p><em>在不违反第一定律的前提下,机器人必须服从人给予它的命令;</em></p></li><li><p><em>机器人在不违反第一、第二定律的情况下要尽力保护自己。</em></p></li></ul><p>当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。<strong>我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。</strong></p><p>目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。</p><p><strong>在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。</strong></p><p>纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。<strong>如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。</strong></p><p><img src=\"https://static.tigerbbs.com/fe5a376e68b64e5d82e70cf015a9cc38\" alt=\"\"/><em>Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。</em></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/3ffb32e91439706901d0645b2679c546","relate_stocks":{},"source_url":"http://mp.weixin.qq.com/s?__biz=MzA3ODk5OTEzOA==&mid=2962169825&idx=1&sn=3276f4e2b09823f300f7b15d786d6d74&chksm=aac184ec9db60dfa4f484bb6dc70b1a85d83baccea9dd642a64ab4301878ba28d854c4ebc530&scene=0#rd","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2385143611","content_text":"最近,OpenAI的人事动荡已经反转再反转,如果拍成电视剧可以持续好几季,外界也不断有各种猜测。但至今,所有讨论都没有涉及最核心的部分:董事会到底为什么要突然驱逐Sam Altman?最新的进展是,在Sam Altman被解雇前,几名研究人员向该公司董事会发了一封信,警告一项强大的人工智能发现可能威胁到人类,这个项目被称为“Q*”(Q-star)。这件事情可能是导致董事会罢免Sam Altman的原因之一,一些研究人员担心OpenAI没有适当的保障措施。董事会在公开场合对罢免的原因含糊其辞,仅在一篇博客文章中表示,Sam Altman被解雇是因为他“在与董事会的沟通中始终不坦诚”。一直有不少人猜测,其背后真正的原因,可能是首席科学家Ilya Sutskever在AI中看到了什么,很有可能是“对齐”(alignment)方面的问题(当然Ilya Sutskever自己后来又反悔了)。甚至有段子说,这是未来人类穿越时空回到今天,以阻止AI在未来毁灭人类,哈哈。无论如何,OpenAI的风波背后,隐含了AI行业内部一直悬而未决的问题:谁能被信任,来打开AI这个潘多拉魔盒?AI之所以能在科技巨头和世界领导人中引起焦虑,原因之一是,我们至今不知道AI为什么一下子变得如此智能?也没有搞清楚大语言模型中的“涌现”(Emergent)现象到底是怎么回事?这导致人类无法真正理解、预测或可靠地控制这些大模型,包括这些模型的创造者们。所以在今天这个时间点,我们想再来重温一下这个问题,重新转发我们在4月份的文章:是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象。在这起Open AI的风波背后,这个问题依然值得我们重视。随着语言模型规模的增长,新能力突然出现;图片来源:Google“计算机科学之父”艾伦·麦席森·图灵早在1950年的论文Computing machinery and intelligence(计算机器与智能),就提出过一个观点:“学习机器有一个重要的特征,即它的老师往往对机器内部运行情况一无所知。”70多年后,这则恐怖的论断成真了。大语言模型的设计者,比如OpenAI、DeepMind或是Meta,他们也不清楚这些新兴能力是如何产生的。微软在关于GPT-4的论文中提出了这个问题:它是如何推理、规划和创造内容的?为什么GPT-4本质上只是由简单的算法组件——梯度下降和大规模的Transformer架构,以及大量数据组合而成,但会表现出如此通用和灵活的智能?微软对GPT-4的这个问题,还可以延伸出很多新问题:涌现是在多大参数规模出现的?哪些调整会影响能力的涌现?会涌现出哪些方向的能力?我们能控制它吗?……搞清楚这些问题其实非常重要,短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者特斯拉的机器人结合吗?这或许在不远的将来就能实现。但如果涌现依然是一个黑箱,人类无法理解人工智能的进化方式或是方向,这在未来AI与物理世界连接后,恐怕会存在危险。目前,学界与产业界有几十篇论文在研究涌现现象,或是研究模型规模与性能之间的联系,我们在本文中会引用一些核心观点,在文末的注释中会列出这些论文的简介与链接,供感兴趣的朋友们进一步研究。本篇文章会主要讨论这些问题:● 大语言模型令人震惊的理解和推理能力● 当我们加大模型规模时,出现的三种神奇表现● 两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)● 多大的模型规模会出现“涌现”?● (附录:本文的论文注释与引用)大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models1、大语言模型令人震惊的理解和推理能力最近几个月里,硅谷一夜之间出现了几百家应用层的创业公司,但在去年11月OpenAI发布ChatGPT之前,整个市场并没有意识到人工智能会在这个时刻,出现这样的爆发。并且大语言模型的迭代速度非常惊人,OpenAI在三个半月后,就即刻发布了GPT-4,升级到多模态,GPT-4竟然可以从文字+图片中,理解人类的幽默感。这些里程碑式的进化背后,核心是涌现现象的出现,只有AI涌现出了这些能力,AI产业才真正迎来了拐点。下面我们先列举一些GPT-4所表现出来的、令人震惊的理解和推理能力:这是一幅用鸡块拼成的世界地图,并且配了一段文字:有时,我只是从太空看地球的照片,并惊讶于这一切是如此的美丽。给GPT-4提问:你能解释一下作者想表达什么吗?GPT-4说:这是一个笑话,它结合了两个不相关的东西:从太空看地球的图片和鸡块。文字表明,下面的图片是从太空看地球的美丽图片。然而,该图片实际上是鸡块的排列,只是有点像世界地图。这个备忘录的幽默来自文本和图片的意外并置,文字设置了一个对地球雄伟形象的期望,但图像实际上是一些平凡而愚蠢的东西。上面这个例子证明了GPT-4具备多模态的理解力,可以识别并理解图片,以及理解了文字+图片并行的意思,并且懂得人类的幽默感。我们再举两个例子,来证明GPT-4具备知识沉淀与推理能力:黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft这是给GPT-4出的一个典型谜题:一个猎人向南走了一英里,向东走了一英里,向北走了一英里,此时恰好回到了起点。他看到了一只熊,于是开枪打了它。这只熊是什么颜色的?我们看到ChatGPT直接放弃了回答,但GPT-4的回答是正确的,答案是白色,并且GPT-4展开推理分析:因为猎人先向南,再向东最后向北,分别走了一英里,恰好回到了原点,这种情况只可能发生在北极,而那里生活着北极熊,所以是白色的。我们再举一个类似的例子,但这个谜题需要不同的知识积累:我驾驶一架飞机离开我的营地,直接向东飞行24901英里,然后回到营地。当我回到营地时,看到一个老虎在我的帐篷里吃我的食物,这只老虎是什么物种?黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft同样的,ChatGPT直接放弃了回答,但GPT-4给出了正确的答案:任何生活在赤道上的老虎物种,例如孟加拉虎和苏门答腊虎。在这个谜题里,AI需要知道地球赤道长24901英里,只有在赤道上才能向东或向西行驶并返回同一点,以及哪些老虎物种生活在赤道上。这些测试都证明了AI具备知识沉淀和推理能力,这也是AI首次真正意义上跨过常识这道门槛。拥有常识要求AI不仅能够看懂眼前画面里的各种东西,还得知道社会规范、物理化学地理等等知识,并且把新看到和已知的一切融会贯通,这是之前十几年AI产业都没有解决的问题,所以之前的AI都有点“智障”,直到GPT-4出现。为什么AI会涌现出这些能力?目前学界还没有答案。不过,有一些探索性的研究论文,在尝试得出一些结论。例如Google+DeepMind+Stanford等16位大牛合作的论文《Emergent Abilities of Large Language Models》(大语言模型的涌现能力)、UCLA 3位教授合写的论文《Emergent Analogical Reasoning in Large Language Models》(类比推理能力在大语言模型中的涌现)。以及,到底如何评估大语言模型的能力表现?在哪些任务上会出现涌现现象?Google在2022年做了一项重要的基准测试。研究人员设计了一个大规模、非常复杂且具有多样化的基准测试——超越模仿游戏基准(Beyond the Imitation Game Benchmark,BIG-bench),以在这个新基准之上衡量大模型的性能。这是一项非常重要的研究,它包含了204项任务,内容多种多样,包括语言学、数学、常识推理、生物学、物理学、社会学、编程等各个方面,并且还有一个由人类专家组成的对照组,他们也同时来做这些测试任务,以跟大模型的结果做对比。BIG-bench对很多大模型做了测试,包括OpenAI的GPT-3、Google的BIG-G等等,模型规模参数有百万级别的,也有千亿级别的。这项任务的主要目标,不是简单地判断大模型与人类的区别,而是为了研究与大模型行为相关的问题。这篇论文的很多结论很有意思,其中就有对“涌现”现象的研究,我们在后文中会介绍。还有一些对大语言模型参数规模与性能之间联系的研究,比如DeepMind在21位作者合写的论文《Training Compute-Optimal Large Language Models》(训练计算利用率最优的大语言模型)中,阐释了尽管大型语言模型随着规模的增长,实现了性能的大幅增强,但由于训练它们的数据量并没有相应成比例地增加,所以并没有实现最高的投入产出比,很多大语言模型都存在训练不足的问题。这篇论文也很有意思,它的背景是DeepMind此前发布了2800亿参数的Gopher,他们统计了Gopher高昂的训练成本,但预测出最优模型应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。然后Deepmind又训练了一个更小的、700亿参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法,Chinchilla的性能不输于Gopher。还有OpenAI 10位作者合写的论文《Scaling Laws for Neural Language Models》;Microsoft 14位作者合写的GPT-4论文《Sparks of Articial General Intelligence:Early experiments with GPT-4》;Meta 11位作者合写的论文《LLaMA:Open and Efficient Foundation Language Models》,LLaMA是一个值得关注的大模型,因为Meta一次性发布了四种尺寸:7B、13B、33B和65B,有助于研究模型规模与性能之间的联系。目前对于涌现,最核心的判断来自Google+DeepMind+Stanford的论文《Emergent Abilities of Large Language Models》:小语言模型本来不具备某种能力,然后我们把模型加大,结果它就产生了某种能力,这就是涌现。2、当我们加大模型规模时,出现的三种神奇表现在2020年之后,人工智能领域最大的进展,其实就是模型规模的快速增长。在AI围棋打败人类棋手时代,Google Bert的参数规模在3亿量级。但到了2020年之后,GPT-3跨越到了1750亿参数规模。而Google在今年初新出的PaLM多模态模型,都在5000亿以上。当然模型规模不仅仅是越大越好,还需要足够高的训练效率。近年来,大语言模型在参数规模和算力上都大幅提升;图片来源:BofA Global Research当我们不断加大模型规模时,大语言模型出现了三种表现:第一种是大语言模型从海量自由文本中学习了大量知识,并且是在不断积累的。从下图我们可以看到,随着有效参数规模的提升,大语言模型在处理知识密集型任务越来越厉害。知识密集型任务遵循伸缩法则;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models如果把这些知识粗略分类的话,主要是语言类知识和世界知识两大类。自从Google的Bert出现以来,就不断有相关研究,并且也有了结论,各种实验充分证明大语言模型可以学习各种层次类型的语言学知识,这也是为何使用预训练模型后,各种语言理解类的任务,获得了大幅提升。另外,各种研究也证明了浅层语言知识,比如词法、词性、句法等知识存储在Transformer的低层和中层,而抽象的语言知识比如语义类知识,广泛分布在Transformer的中层和高层结构中。世界知识指的是,一些事实型知识和常识型知识,比如“第一次世界大战开始于1914年7月28日”、“拿破仑曾经是法兰西皇帝”等等事实型知识;以及“人有两只眼睛”、“太阳从东方升起”、“世界有五大洲”“一天有24小时”等等常识型知识,大量研究证明了大语言模型,从训练数据中吸收了大量世界知识,而这类知识主要分布在Transformer的中层和高层,尤其聚集在中层。一篇2021年的论文显示,研究人员通过分层探测程序,来研究Google基于Transformer架构的Bert是如何储存知识的,发现并不是所有知识都在最后几层获得,大量的事实与一些关系更多是在中间层,比如给Bert一个问题“阿拉巴马州的首府是?”,在Transformer的架构中,可以发现正确答案“蒙哥马利(Montgomery,上图中标红)”是储存在11层和12层之间,但一些逻辑推理中所需要的词汇,比如located(位于)、today(今天)、city(判断任务中的capital这个词,此时指的是城市),以及其他地名知识Gaveston(加尔维斯敦,美国得克萨斯州东南部港市)、Haifa(以色列城市海法)等等,储存在5-11层之间。图片来源:BERTnesia:Investigating the capture and forgetting of knowledge in BERT更重要的是,随着Transformer模型层深增加,能够学习到的知识数量逐渐以指数级增加。以色列特拉维夫大学、Allen Institute for AI、Cornell Tech的4位学者,在一篇论文中研究了Transformer到底是如何储存这些知识,以及如何对全局信息进行集成、如何建立知识与知识之间的联系、在使用时如何提取。这个研究揭示了大语言模型如何预测下一个词,比如这个任务中,需要预测Stay with you for a ?,我们知道答案是while,但大语言模型如何预测出来?首先输入向量(这里是x5),与key相乘,上图中“k2”是由描述一段时期(it will take a、every once in a、and for a)、并且以a为结尾的输入触发的,得出记忆系数(例如V1的记忆系数是0.2,V2是1.5),然后对储存在数值中的输出词汇进行权重分配,因此前馈层(feed-forward layer)的输出是其数值的加权和,而前馈层在这个过程中模拟了神经记忆。在这个例子中,AI将大部分概率放在了V2上,也就是“while”这个词。同时,研究者发现大模型作为一个整体,每个层结合了数百个活跃的记忆,在预测的过程中创造了每个组成记忆的值的概率发布,而层与层之间也有着某种链接以便调整,最终的输出分布是以自下而上的方式构建出来的。图片来源:Transformer Feed-Forward Layers Are Key-Value Memories能证明大语言模型是有知识沉淀的,其实非常重要。OpenAI为什么能一直坚持做大语言模型?在发展的前期,GPT其实让OpenAI非常受挫,GPT-1和GPT-2都没能胜过Google的Bert,直到GPT-3才扬眉吐气。在这个有点“对抗全世界”的过程中,一颗定心丸就是“大语言模型确实在不断积累知识”,如果没有这些,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,那谁还会一直有决心坚持下去呢?所以ChatGPT的成功,不单单是OpenAI独立实现的。目前在知识密集型任务上,随着模型规模增长而带来的效果提升,还没有看到尽头,这也意味着只要我们不断扩大,AI处理这类任务的能力还会提升。另外,OpenAI也在研究中得出了类似的结论。在论文Scaling Laws for Neural Language Models中,OpenAI提出了大语言模型遵循“伸缩法则”(scaling law)。如下图所示,OpenAI通过研究证明,当我们增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。并且,如果独立进行,不受其他两个因素影响时,大模型性能与每个单独的因素都有一个幂律关系,体现为Test Loss的降低,也就是模型性能提升。当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高;图片来源:OpenAI:Scaling Laws for Neural Language Models在上一步的基础上,第二类就是涌现出新能力。具体体现为,在模型参数规模不够大时,AI的能力表现非常一般,准确性几乎是随机的。但是当模型规模和计算力都推进到一定规模之后,AI的能力突然急剧增长。经过分析,这类能力也有一个共性,就是这类任务都是由多个步骤构成的一个复杂任务,比如语词检测、国际音标音译、周期性运算、修正算术、单词解读等等。多步骤推理类任务中,也具有涌现能力;图片来源:Google BIG-bench:Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models第三种表现是有些情况下,能力效果会呈现U型曲线。这类情况出现的比较少,主要是随着模型规模加大,刚开始的时候效果反而下降,但当规模到了一定程度之后,效果又开始上升。图片来源:Google:Inverse scaling can become U-shaped如上图中红色线代表的PaLM模型,在两个任务上的指标走势,为何会出现U型曲线?Google的论文Inverse scaling can become U-shaped给出了一种解释:这些任务,内部其实包含了两种不同类型的子任务,一种是真正的任务,另外一种是“干扰任务”。当模型规模小的时候,无法识别子任务是哪一种,所以模型的表现跟随机选择答案差不多;当模型增长到中等规模的时候,主要执行的是干扰任务,所以对真正的任务效果有负面影响;当进一步增加模型规模,大模型开始识别出干扰任务,并忽略掉它们,执行真正的任务,最终结果的准确率上升。3、两种被证明具备“涌现”的典型能力:上下文学习(ICL)和思维链(CoT)目前有两类最典型的能力,有实际证据来说明大模型具备涌现效应。第一类就是In Context Learning(ICL,上下文学习),ICL是在2022年初正式提出来的,它也是ChatGPT热潮的重要基石之一。ICL的关键思想是不对模型参数进行调整,而是给大模型几个示例,AI就可以从类比中学习。这也意味着,AI其实并没有经历一个明确的学习过程,而是通过看了一些示例,就出现了解决该领域问题的新能力。ICL对大语言模型能否泛化非常重要。在ICL之前,很多语言模型都是两段式框架,即预训练+下游任务微调,但是在针对下游任务的微调过程中,需要大量的样本参数,否则效果很差,然而标注数据的成本高昂、标注量有限,并且如果数据较少的话,容易导致过拟合,致使模型的泛化能力下降。此时ICL这种不需要fine-tune的方法既节省时间与算力资源,还提升了模型性能。In Context Learning示例。图片来源:华盛顿大学、Meta、Allen Institute for AI:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?上图给出了一个大语言模型如何使用ICL进行决策的例子。首先,ICL需要一些示例来形成一个演示上下文,这些示例通常都是用自然语言编写的(上图中标黄的部分)。然后ICL将查询的问题(即你需要预测标签的input,上图中标绿的部分)和一个上下文演示(一些相关的例子)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测(上图中最下方的结果)。所以,ICL只需要一些演示“输入-标签”对,模型就可以预测标签,甚至是没见过的输入标签。在许多下游任务中,大型 GPT模型的性能非常好,甚至超过了一些经过监督微调的小型模型。不过,虽然GPT-3/4已经显示出令人惊讶的ICL能力,但它到底是如何工作的?这些能力是如何涌现出来的?现在还没有结论。还有很神秘的一点是,如果说大模型只是看了一些示例,但怎么就能预测对新的例子呢?ICL与Fine-tuning表面上看,都是给大模型一些例子,然后让它们去预测,但两者有本质不同。Fine-tuning是拿这些例子当作训练数据,利用反向传播去修正大模型的参数,而这个修正的动作,体现了大模型从这些例子中有学习过程。但在ICL中,只是拿出例子让大模型“看了一眼”,并没有证据表明大模型有根据例子去修正参数的动作,就直接让大模型去预测新例子,这意味着大模型似乎并未经历一个学习的过程,那么大模型是如何做到的?这目前还是未解之谜。有学者试图证明ICL没有从例子中学习,代表论文是华盛顿大学、Meta与Allen Institute for AI的7位研究者所写的Rethinking the Role of Demonstrations:What Makes In-Context Learning Work?但也有学者认为大模型其实有一种隐式学习,代表论文是What learning algorithm is in-context learning? Investigations with linear models。目前这些互相矛盾的研究,暂时还谁也说服不了谁。第二类被广泛认为具备涌现能力的就是CoT(思维链,Chain of Thought),CoT是大语言模型推理能力的重要来源之一。CoT的主体思想是:为了教会大语言模型如何做推理,我们先给出一些人工写好的推理示例,示例里要把一步步的具体推理步骤写清楚,而这些人工写的详细推理过程,就是思维链Prompting。图片来源:Google Brain Team:Chain of thought prompting elicits reasoning in large language models最早系统性提出CoT做法的,是Google Brain团队,9位作者在论文Chain of thought prompting elicits reasoning in large language models中系统性阐述了CoT。人工写的详细推理过程,就是上图中蓝色文字部分。CoT是要让大语言模型明白,在推理过程中,步子不要迈得太大,否则很容易出错,而是要把大问题拆分成一个一个小问题,逐步得出最终的正确结果。Google Brain的这篇论文发布于2022年1月,开始应用CoT后,一些改进技术很快跟上,大语言模型的推理能力得到了巨大提升,特别是像数学推理的准确率瞬间提高。我们在上文分析过,通过海量数据训练,大语言模型吸收了大量世界知识,并且可以对全局信息进行集成、建立知识与知识之间的联系、在需要使用时准确提取。但我们不会因为一个人拥有很强的记忆能力,就说这个人很有智慧,而决定有没有智慧的,是这个人能不能通过大量知识推理出准确结论。所以CoT是ChatGPT如此惊艳的重要基础,已经有不少研究证实,CoT也具备涌现现象。使用CoT提示,提高了大模型处理数学问题、符号推理任务的能力,出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。使用CoT提示,还提高了大模型的常识推理能力,也出现了能力涌现现象。图片来源:Google Brain:Chain-of-Thought Prompting Elicits Reasoning in Large Language Model。如今GPT-4已经在很多人类的考试中取得了高分,比如SAT、AP、GRE等等,甚至还通过了模拟律师考试,分数在应试者的前10%左右。图片来源:OpenAI:GPT-4 Technical Report一些能力涌现举例。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models不过目前大模型在复杂推理方面仍然有局限性。无论是微软在论文Sparks of Artificial General Intelligence:Early experiments with GPT-4中,还是加州大学圣芭芭拉分校5位研究者的论文Limitations of Language Models in Arithmetic and Symbolic Induction,都提出了大语言模型在解决问题时的规划能力偏弱。比如对于一个简单算术问题,7*4+8*8=?,GPT-4就给出了错误答案88。微软用了100个随机样本测试了这个任务,得到的准确率只有58%,但这其实是一个小学生都可以解决的简单算术问题。如果把数字变大,到99-199 之间,准确率降至零。图片来源:Microsoft:Sparks of Artificial General Intelligence:Early experiments with GPT-4但如果我们提示大模型要规划好推理步骤,比如这个更难一点的任务:116 * 114 + 178 * 157 =?,我们这次同时写上提示推理步骤:“让我们一步一步地考虑如何解决这个表达式,写下所有中间步骤,然后才得出最终解决方案。”于是准确率大幅提升,可以到90%-100%。这其实说明了,大模型自身缺乏提前规划的能力,这种能力的缺失,会导致大模型很难去处理更加复杂的推理任务。总之,如何加强大模型的复杂推理能力,是未来研究中非常重要的一点。4、多大的模型规模会出现“涌现”?我们在上文分析了大模型在哪些任务中出现了涌现现象,紧接着一个更具有短期价值的问题出现了——多大的模型规模会出现“涌现”现象?根据Google、Stanford、DeepMind的论文Emergent Abilities of Large Language Models,我们可以得出一个经验判断:68B是一个基础的参数(params)门槛(B代表单位billions,十亿),最好要超过100B。当然这与具体的任务和模型本身都有关联。在ICL(上下文学习)的情形下,需要最少参数就能出现涌现的任务是Addition/ subtraction(3 digit),也就是三位数的加/减法,只需要130亿参数;而像在Word in Context(WiC)benchmark(多义词判断,该任务是指给定两个文本片段和一个有多重含义的多义词,要求模型判定这个单词是否在两个句子中有相同的含义)这样的稍复杂任务中,则需要5400亿参数才能出现涌现。ICL情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models而在CoT(思维链)的情形下,需要最小参数的任务是using open-book knowledge for fact checking(事实核查),只需要71亿;而leveraging explanations in prompting(在提示中利用解释词)则需要2800亿参数才能涌现这个能力。CoT情形下,出现能力涌现所对应的模型规模。图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models所以综合来看,68B是一个最基础的门槛。而目前效果最好的大语言模型,其参数规模基本都超过了100B。例如OpenAI的GPT-3为175B,GPT-4的参数规模未公布;Google的LaMDA规模为137B,PaLM的规模为540B,DeepMind的Gogher规模最大,达到280B。当然,参数规模不是盲目地越大越好,而是要充分训练。那么能不能把模型做小?我们知道,现在大模型的训练成本非常高昂,无论是算力还是高质量的数据集本身都是稀缺资源,动辄百万美元的单次训练成本对大多数公司来说都太贵了。但是如果模型太小,很多能力涌现不出来,又会变成“智障”,所有训练成本都白费。目前小模型的代表之一是DeepMind的Chinchilla,它的参数规模在70B,但在各项性能上,与280B的大模型Gopher相差不算太大。当然这里的“小”模型,只是相对于更大参数规模的模型而言,Chinchilla本身也还是属于大语言模型。Gopher也是DeepMind发布的大模型,由于模型规模太大,所以训练成本非常高昂。不过Google通过一项研究,预测出了最优模型其实应该小4倍,并且在多4倍的数据量上进行训练,才能更充分。于是DeepMind又训练了一个更小的、70B参数的模型Chinchilla,但在更大规模的数据量上训练,最终证实了这个想法。不过在训练成本方面,Chinchilla虽然减少了参数规模,但增加了数据量,所以训练成本并没有降低,而是降低了推理成本,并且能够在更小硬件上实现应用。各个主流大模型的参数规模与训练数据量对比,Chinchilla参数规模最小,但训练数据量最大。图片来源:DeepMind:Training Compute-Optimal Language ModelsChinchilla也具备涌现能力。图片来源:Google、Stanford University、DeepMind:Emergent Abilities of Large Language Models。如上图所示,可见Chinchilla在各种MMLU任务(是一种自然语言处理的综合任务,其中有很多子任务)中,具备涌现能力。图片来源:DeepMind:Training Compute-Optimal Language Models在Google BIG-bench基准测试中,如上图所示(上图是用Chinchilla的测试得分除以Gopher,以体现Chinchilla比Gopher提升了多少),70B参数规模的Chinchilla,比起280B参数规模的Gopher,只有四项任务表现更差,其他在性能上都更优。这里就涉及到了一个核心问题——算力如何分配?我们在上文介绍“伸缩法则”时,提到过OpenAI在论文Scaling Laws for Neural Language Models中得出结论,当我们独立增加参数规模、数据集规模和延长模型训练时间,大语言建模的性能就会提高。那么假设总算力是一定的,到底是应该多增加数据量、减少模型参数呢?还是两者同时增加,但减少训练时间呢?最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping),来减少训练时长。OpenAI证明了,如果只单独增加训练数据量和模型参数其中某一个,不是最好的选择,而是要按照一定比例同时增加两者。OpenAI的结论是优先增加模型参数,然后才是训练数据量。假设用于训练大语言模型的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。DeepMind在论文Training Compute-Optimal Large Language Models中,也得出了类似的结论,但与OpenAI不同的是,DeepMind认为训练数据量也很重要,不亚于模型参数。基于这个认知,DeepMind在设计Chinchilla模型时,在算力分配上选择了新配置:对标数据量300B、模型参数量280B的Gopher模型,Chinchilla选择增加4倍的训练数据量,但是将模型参数降低为Gopher的四分之一(70B)。从结果来看,无论是预训练指标,还是很多下游任务指标,Chinchilla效果都要优于规模更大的Gopher。另一个“小”模型的例子是Meta推出的LLaMA。LLaMA一推出,就引起了轰动,因为LLaMA可以在配备M1芯片的苹果电脑,或者单个英伟达消费级GPU上运行,而像GPT这些大模型都需要多个数据中心级英伟达A100 GPU支持,并且LLaMA是开源的。如果LLaMA确实好用,那就意味着普通人也可以在自己的消费级硬件上运行这些工具了,这将对社会产生巨大影响。从Meta的论文LLaMA:Open and Efficient Foundation Language Models中,Meta也提出了这样一个观点:在给定的算力预算下,最好的性能不是由最大的模型实现的,而是由在更多数据上训练的“小”模型实现的。Meta更进一步的是,把推理成本也纳入进来。Meta认为很多研究都忽略了推理所需的算力成本,而这一点在大语言模型最终应用时非常重要。所以尽管Hoffmann等人建议在200B tokens的数据量上训练10B参数规模的模型,但Meta发现7B参数模型的性能,在1T tokens数据量以上还能继续提升。所以Meta的目标是用尽量小的参数规模,拿更大的数据量来训练,以追求更低的推理成本。所以LLaMA最小的参数只有7B,最大的也只有65B,相比于GPT-3 175B确实是“小”模型。那么LLaMA虽然有更小的参数规模,但效果如何?也具备涌现能力吗?图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models图片来源:Meta:LLaMA: Open and Efficient Foundation Language Models上图是Meta在论文中,主要列出的针对MMLU(大规模多任务语言理解)任务成绩,可见LLaMA的性能还是很不错的,在不少基准测试中优于GPT-3,这证明了更小的参数规模,也能产生涌现能力。以上这些研究都很有意义,我们可以猜想,GPT-3的175B参数,其实并没有得到充分训练,因为以GPT的训练数据量来说,其实不需要这么大的参数量。那从另一个角度,在不降低模型效果的前提下,其实可以把模型做小,先增加训练数据量、降低模型参数量,把这个量级的参数充分训练,然后再继续往更大的规模推。一个太大的模型规模,会在应用的时候,导致推理速度变慢、推理成本急剧上升,一个更精炼的“小”模型,在应用端更有前途,例如Meta的LLaMA。涌现与参数规模、训练数据量可能有一个不同的映射关系,但具体是什么,现在仍然未知。这一点还有待学界研究。ChatGPT的出现,代表着人工智能突破了掌握并运用常识的能力,涌现现象的出现,使得大语言模型正在往“真正的人工智能”方向大踏步迭代。微软在GPT-4论文中写道:我们对GPT-4的研究完全是基于现象学的,我们关注的是GPT-4能够做到这些令人惊讶的事情,但我们并不知道它是如何变得如此智能的。它是如何推理、规划和创造内容的?为什么当它本质上只是由简单的算法组件——梯度下降和Transformer,以及庞大的数据组合而成时,会表现出如此通用和灵活的智能?这些问题是大语言模型充满神秘和吸引力的部分,挑战了我们对学习和认知的理解,关键方向就是对大语言模型涌现现象的持续研究。阐明GPT-4等AI系统的本质和机制,是一个巨大的挑战,这个挑战在今天已经突然变得重要和紧迫。1942年,科幻小说作家阿西莫夫(Isaac Asimov)提出了机器人三定律:机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;在不违反第一定律的前提下,机器人必须服从人给予它的命令;机器人在不违反第一、第二定律的情况下要尽力保护自己。当下,我们虽然还处于通用人工智能的早期阶段,但ChatGPT的迭代速度非常惊人,有传闻说GPT-5的部分代码,已经是由GPT-4来自动生成的了。我们是否需要在未来的某个时刻停下来,先思考一下如何制定针对通用人工智能的定律?并确保这些定律能够被100%执行,因为涌现仍然是黑箱,我们对能力涌现的机制与方向还所知甚少。目前有少量研究探寻了涌现现象出现的可能原因,但只是一些初步探索,限于本文篇幅,我们会在下一篇文章中介绍这些研究。一些猜想包括:涌现可能只是一种外在表现,因为我们对任务的评价指标不够平滑;很多任务是由多步骤构成,随着模型规模变大,如果每个步骤都更准确了一点点,最终的整体正确率会大幅提升,就会体现成“涌现”现象。在本文最后的最后,我想说一个题外话。我最初看到论文Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models的时候,被它的首页吓到了,然后是一种感动油然而生:在作者署名那里,密密麻麻地列举了来自132个机构的442位作者,他们在2022年密切合作,在人类未曾涉足的前沿领域探索。纵观最近1-2年人工智能领域的论文,几乎没有仅仅2-3位作者署名的,都是5-6位或者10多位作者的联合署名,比如微软关于GPT-4的论文就有14位作者署名、Google关于超大模型PaLM的论文有67位作者。如今在诸多前沿领域,比如量子计算、人工智能、航天科学、核聚变等等,都需要非常复杂的多学科交汇,人类的进步不仅仅依靠一两个天才,越来越是密切的组织与合作的结果。Beyond The Imitation Game: Quantifying And Extrapolating The Capabilities Of Language Models论文首页,密密麻麻地列举了132个机构的442位作者,感谢这些在人类前沿领域不断探索的人们。","news_type":1},"isVote":1,"tweetType":1,"viewCount":843,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":227687686516840,"gmtCreate":1696595814208,"gmtModify":1696595815556,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"我去","listText":"我去","text":"我去","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/227687686516840","repostId":"1146127112","repostType":2,"repost":{"id":"1146127112","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1696595433,"share":"https://www.laohu8.com/m/news/1146127112?lang=&edition=full","pubTime":"2023-10-06 20:30","market":"us","language":"zh","title":"盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升","url":"https://stock-news.laohu8.com/highlight/detail?id=1146127112","media":"老虎资讯综合","summary":"美国9月失业率 3.8%,预期3.70%,前值3.80%。","content":"<html><head></head><body><p><strong>美国9月季调后新增非农就业人口(万人): 33.6,为2023年1月以来最大增幅。预期:17,前值:18.7。</strong></p><p><strong>美国9月失业率 3.8%,预期3.70%,前值3.80%。</strong></p><p>美国劳工统计局:7月份非农新增就业人数从15.7万人上修至23.6万人;8月份非农新增就业人数从18.7万人上修至22.7万人。修正后,7月和8月新增就业人数合计较修正前高11.9万人。休闲和酒店行业、政府、卫生保健、专业、科技服务和社会救助的就业岗位有所增加。</p><ul style=\"\"><li><p>9月平均每周工时 34.4小时,预期 34.4小时,前值 34.4小时。</p></li><li><p>9月私营部门就业人口变动 26.3万人,预期 16万人,前值 17.9万人。</p></li><li><p>9月制造业就业人口变动 1.7万人,预期 0.5万人,前值 1.6万人。</p></li><li><p>9月平均每小时工资同比 4.2%,预期 4.3%,前值 4.3%。</p></li><li><p>9月平均每小时工资环比 0.2%,预期 0.3%,前值 0.2%。</p></li></ul><blockquote><p>嘉信理财英国董事总经理Richard Flynn表示,投资者将把今天的就业报告解读为劳动力市场需求仍然健康的信号。就业增长最近一直是经济韧性的关键驱动力,平衡了住房和消费品等领域的疲软。今天公布的强劲数据应该有助于消除对经济衰退的担忧,并为可能走向稳定的经济部门带来乐观情绪。</p></blockquote><p><strong>数据公布后,美股期货短线跳水,纳指期货跌超1%。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ce0f2b79405526d8dd0c64c4e9bb9fa8\" title=\"\" tg-width=\"1099\" tg-height=\"529\"/></p><p><strong>美国5- 30年期美国国债收益率日内涨幅达15个基点,其中30年期国债收益率升至5.04%,为2007年以来的最高水平;10年期国债收益率超过4.88%,为2007年以来最高。美国2年期国债收益率超过10年期国债的幅度为今年内最小。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f2cf1c501527daa495e9bedd9d05bc2a\" title=\"\" tg-width=\"1385\" tg-height=\"671\"/></p><p>黄金期货快速走低。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b0bf2a7850cdd539d6922007428b3e73\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>加息预期</strong></p><p>与美联储政策利率挂钩的合约隐含收益率上升,表明美联储在12月会议上将基准利率上调至5.50%-5.75%区间的可能性接近50%。在就业报告发布之前,交易员认为加息25个基点的可能性约为34%。</p><p>美联储互换市场完全定价美联储降息时间从明年7月推迟到明年9月。</p><p><strong>个股盘前表现</strong></p><p>特斯拉跌3%,此前特斯拉官宣降低了Model 3和Model Y车型在美国的价格。此外,美国证交会起诉马斯克,强迫其就去年收购推特一事作证。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9ce1efe41be0e8d62996c9b62f9d48ef\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>先锋自然资源大涨超10%。消息称埃克森美孚石油接近达成收购先锋自然资源的协议。</p><p>微软跌1.5%,动视暴雪涨0.38%,据报道微软计划在下周结束与动视暴雪的交易。</p><p>台积电涨0.56%。台积电周五公布2023年9月营收为1804.3亿元台币,环比降低4.4%,同比下降13%。</p><p>飞利浦大跌超10%。美国食品和药物管理局(FDA)要求飞利浦对其BiPAP和CPAP呼吸机进行额外测试,以全面评估这些召回设备对用户构成的风险,并警告称该公司对召回产品的分析不充分。飞利浦公司周五表示,该公司一直在与FDA合作进行测试和研究计划,并正在与监管机构就额外测试的细节进行讨论。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/18b8e371402e4bbecd1f509817c76155\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n盘前 | 美国9月非农大超预期,股指期货跳水,国债收益率飙升\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2023-10-06 20:30</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p><strong>美国9月季调后新增非农就业人口(万人): 33.6,为2023年1月以来最大增幅。预期:17,前值:18.7。</strong></p><p><strong>美国9月失业率 3.8%,预期3.70%,前值3.80%。</strong></p><p>美国劳工统计局:7月份非农新增就业人数从15.7万人上修至23.6万人;8月份非农新增就业人数从18.7万人上修至22.7万人。修正后,7月和8月新增就业人数合计较修正前高11.9万人。休闲和酒店行业、政府、卫生保健、专业、科技服务和社会救助的就业岗位有所增加。</p><ul style=\"\"><li><p>9月平均每周工时 34.4小时,预期 34.4小时,前值 34.4小时。</p></li><li><p>9月私营部门就业人口变动 26.3万人,预期 16万人,前值 17.9万人。</p></li><li><p>9月制造业就业人口变动 1.7万人,预期 0.5万人,前值 1.6万人。</p></li><li><p>9月平均每小时工资同比 4.2%,预期 4.3%,前值 4.3%。</p></li><li><p>9月平均每小时工资环比 0.2%,预期 0.3%,前值 0.2%。</p></li></ul><blockquote><p>嘉信理财英国董事总经理Richard Flynn表示,投资者将把今天的就业报告解读为劳动力市场需求仍然健康的信号。就业增长最近一直是经济韧性的关键驱动力,平衡了住房和消费品等领域的疲软。今天公布的强劲数据应该有助于消除对经济衰退的担忧,并为可能走向稳定的经济部门带来乐观情绪。</p></blockquote><p><strong>数据公布后,美股期货短线跳水,纳指期货跌超1%。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/ce0f2b79405526d8dd0c64c4e9bb9fa8\" title=\"\" tg-width=\"1099\" tg-height=\"529\"/></p><p><strong>美国5- 30年期美国国债收益率日内涨幅达15个基点,其中30年期国债收益率升至5.04%,为2007年以来的最高水平;10年期国债收益率超过4.88%,为2007年以来最高。美国2年期国债收益率超过10年期国债的幅度为今年内最小。</strong></p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f2cf1c501527daa495e9bedd9d05bc2a\" title=\"\" tg-width=\"1385\" tg-height=\"671\"/></p><p>黄金期货快速走低。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/b0bf2a7850cdd539d6922007428b3e73\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p><strong>加息预期</strong></p><p>与美联储政策利率挂钩的合约隐含收益率上升,表明美联储在12月会议上将基准利率上调至5.50%-5.75%区间的可能性接近50%。在就业报告发布之前,交易员认为加息25个基点的可能性约为34%。</p><p>美联储互换市场完全定价美联储降息时间从明年7月推迟到明年9月。</p><p><strong>个股盘前表现</strong></p><p>特斯拉跌3%,此前特斯拉官宣降低了Model 3和Model Y车型在美国的价格。此外,美国证交会起诉马斯克,强迫其就去年收购推特一事作证。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9ce1efe41be0e8d62996c9b62f9d48ef\" title=\"\" tg-width=\"450\" tg-height=\"134\"/></p><p>先锋自然资源大涨超10%。消息称埃克森美孚石油接近达成收购先锋自然资源的协议。</p><p>微软跌1.5%,动视暴雪涨0.38%,据报道微软计划在下周结束与动视暴雪的交易。</p><p>台积电涨0.56%。台积电周五公布2023年9月营收为1804.3亿元台币,环比降低4.4%,同比下降13%。</p><p>飞利浦大跌超10%。美国食品和药物管理局(FDA)要求飞利浦对其BiPAP和CPAP呼吸机进行额外测试,以全面评估这些召回设备对用户构成的风险,并警告称该公司对召回产品的分析不充分。飞利浦公司周五表示,该公司一直在与FDA合作进行测试和研究计划,并正在与监管机构就额外测试的细节进行讨论。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/18b8e371402e4bbecd1f509817c76155\" title=\"\" tg-width=\"450\" tg-height=\"130\"/></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/ed4ee39e6b0f45214393093d70ba81a8","relate_stocks":{".DJI":"道琼斯"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1146127112","content_text":"美国9月季调后新增非农就业人口(万人): 33.6,为2023年1月以来最大增幅。预期:17,前值:18.7。美国9月失业率 3.8%,预期3.70%,前值3.80%。美国劳工统计局:7月份非农新增就业人数从15.7万人上修至23.6万人;8月份非农新增就业人数从18.7万人上修至22.7万人。修正后,7月和8月新增就业人数合计较修正前高11.9万人。休闲和酒店行业、政府、卫生保健、专业、科技服务和社会救助的就业岗位有所增加。9月平均每周工时 34.4小时,预期 34.4小时,前值 34.4小时。9月私营部门就业人口变动 26.3万人,预期 16万人,前值 17.9万人。9月制造业就业人口变动 1.7万人,预期 0.5万人,前值 1.6万人。9月平均每小时工资同比 4.2%,预期 4.3%,前值 4.3%。9月平均每小时工资环比 0.2%,预期 0.3%,前值 0.2%。嘉信理财英国董事总经理Richard Flynn表示,投资者将把今天的就业报告解读为劳动力市场需求仍然健康的信号。就业增长最近一直是经济韧性的关键驱动力,平衡了住房和消费品等领域的疲软。今天公布的强劲数据应该有助于消除对经济衰退的担忧,并为可能走向稳定的经济部门带来乐观情绪。数据公布后,美股期货短线跳水,纳指期货跌超1%。美国5- 30年期美国国债收益率日内涨幅达15个基点,其中30年期国债收益率升至5.04%,为2007年以来的最高水平;10年期国债收益率超过4.88%,为2007年以来最高。美国2年期国债收益率超过10年期国债的幅度为今年内最小。黄金期货快速走低。加息预期与美联储政策利率挂钩的合约隐含收益率上升,表明美联储在12月会议上将基准利率上调至5.50%-5.75%区间的可能性接近50%。在就业报告发布之前,交易员认为加息25个基点的可能性约为34%。美联储互换市场完全定价美联储降息时间从明年7月推迟到明年9月。个股盘前表现特斯拉跌3%,此前特斯拉官宣降低了Model 3和Model Y车型在美国的价格。此外,美国证交会起诉马斯克,强迫其就去年收购推特一事作证。先锋自然资源大涨超10%。消息称埃克森美孚石油接近达成收购先锋自然资源的协议。微软跌1.5%,动视暴雪涨0.38%,据报道微软计划在下周结束与动视暴雪的交易。台积电涨0.56%。台积电周五公布2023年9月营收为1804.3亿元台币,环比降低4.4%,同比下降13%。飞利浦大跌超10%。美国食品和药物管理局(FDA)要求飞利浦对其BiPAP和CPAP呼吸机进行额外测试,以全面评估这些召回设备对用户构成的风险,并警告称该公司对召回产品的分析不充分。飞利浦公司周五表示,该公司一直在与FDA合作进行测试和研究计划,并正在与监管机构就额外测试的细节进行讨论。","news_type":1},"isVote":1,"tweetType":1,"viewCount":660,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":218945255915776,"gmtCreate":1694477555099,"gmtModify":1694477556408,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/218945255915776","repostId":"218775976120560","repostType":1,"repost":{"id":218775976120560,"gmtCreate":1694435447518,"gmtModify":1694435473469,"author":{"id":"3527667608392900","authorId":"3527667608392900","name":"芯潮","avatar":"https://static.tigerbbs.com/feac0f5f370e5db4646bf8b1ef22253f","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3527667608392900","idStr":"3527667608392900"},"themes":[],"title":"Arm的缺点!","htmlText":"在之前的文章中,我探讨了Arm的财务状况,根据历史估值判断,Arm留给二级市场的空间并不大。《<a href=\"https://laohu8.com/TW/217372487020616\" target=\"_blank\">ARM贵不贵?上市首日能涨多少?</a>》虽然估值超高,但Arm依然得到资金的疯抢,有传言称,公司已获6倍超额认购,IPO定价或超过上限。夸赞Arm的文章有很多,赘述毫无新意,这篇文章聊聊Arm的缺点。Arm在智能手机芯片架构方面处于垄断地位,无论是iOS还是安卓,都是Arm的拥簇,而且在可预见的未来,这种垄断地位难以撼动。这难免让人想起EUV光刻机霸主阿斯麦,正是得益于这种绝对垄断地位,公司的市盈率常年处于高位:虽然都是垄断,但细微之处还是有差别的,比如客户关系。阿斯麦和客户之间的关系非常融洽,甚至光刻机的研发离不开客户的配合,比如上世纪90年代,光刻机的光源波长被卡死在193nm,成为了摆在全产业面前的一道难关。此时,台积电的工程师林本坚提出在透镜和硅片之间加一层水,将原有的193nm激光经过折射,直接越过157nm的天堑,降低到132nm!阿斯麦采用了这个建议,与台积电合作研发出浸润式光刻机,一跃成为光刻机老大。但是,Arm与客户的关系并不融洽,主要是其商业模式属于专利授权,Arm的定价及约束非常严苛,比如今年4月,Arm改变了收费模式。此前,客户支付技术授权费来购买Arm的IP授权,价格取决于授权技术的复杂程度,并且Arm还会根据芯片厂商的处理器价格抽取一定的版税,版权按照单个芯片售价的1%~2%来计算。未来,ARM计划不再根据“芯片价值”向厂商收取使用其设计的专利费,而是根据“终端价值”收费,希望以此大幅提振专利收入。很多终端厂商不由怒批:“Arm是在明目张胆的和客户抢利润,是在吸合作伙伴的血,简直就是蛀虫行径!”专利霸权也引发了Arm与大客户高","listText":"在之前的文章中,我探讨了Arm的财务状况,根据历史估值判断,Arm留给二级市场的空间并不大。《<a href=\"https://laohu8.com/TW/217372487020616\" target=\"_blank\">ARM贵不贵?上市首日能涨多少?</a>》虽然估值超高,但Arm依然得到资金的疯抢,有传言称,公司已获6倍超额认购,IPO定价或超过上限。夸赞Arm的文章有很多,赘述毫无新意,这篇文章聊聊Arm的缺点。Arm在智能手机芯片架构方面处于垄断地位,无论是iOS还是安卓,都是Arm的拥簇,而且在可预见的未来,这种垄断地位难以撼动。这难免让人想起EUV光刻机霸主阿斯麦,正是得益于这种绝对垄断地位,公司的市盈率常年处于高位:虽然都是垄断,但细微之处还是有差别的,比如客户关系。阿斯麦和客户之间的关系非常融洽,甚至光刻机的研发离不开客户的配合,比如上世纪90年代,光刻机的光源波长被卡死在193nm,成为了摆在全产业面前的一道难关。此时,台积电的工程师林本坚提出在透镜和硅片之间加一层水,将原有的193nm激光经过折射,直接越过157nm的天堑,降低到132nm!阿斯麦采用了这个建议,与台积电合作研发出浸润式光刻机,一跃成为光刻机老大。但是,Arm与客户的关系并不融洽,主要是其商业模式属于专利授权,Arm的定价及约束非常严苛,比如今年4月,Arm改变了收费模式。此前,客户支付技术授权费来购买Arm的IP授权,价格取决于授权技术的复杂程度,并且Arm还会根据芯片厂商的处理器价格抽取一定的版税,版权按照单个芯片售价的1%~2%来计算。未来,ARM计划不再根据“芯片价值”向厂商收取使用其设计的专利费,而是根据“终端价值”收费,希望以此大幅提振专利收入。很多终端厂商不由怒批:“Arm是在明目张胆的和客户抢利润,是在吸合作伙伴的血,简直就是蛀虫行径!”专利霸权也引发了Arm与大客户高","text":"在之前的文章中,我探讨了Arm的财务状况,根据历史估值判断,Arm留给二级市场的空间并不大。《ARM贵不贵?上市首日能涨多少?》虽然估值超高,但Arm依然得到资金的疯抢,有传言称,公司已获6倍超额认购,IPO定价或超过上限。夸赞Arm的文章有很多,赘述毫无新意,这篇文章聊聊Arm的缺点。Arm在智能手机芯片架构方面处于垄断地位,无论是iOS还是安卓,都是Arm的拥簇,而且在可预见的未来,这种垄断地位难以撼动。这难免让人想起EUV光刻机霸主阿斯麦,正是得益于这种绝对垄断地位,公司的市盈率常年处于高位:虽然都是垄断,但细微之处还是有差别的,比如客户关系。阿斯麦和客户之间的关系非常融洽,甚至光刻机的研发离不开客户的配合,比如上世纪90年代,光刻机的光源波长被卡死在193nm,成为了摆在全产业面前的一道难关。此时,台积电的工程师林本坚提出在透镜和硅片之间加一层水,将原有的193nm激光经过折射,直接越过157nm的天堑,降低到132nm!阿斯麦采用了这个建议,与台积电合作研发出浸润式光刻机,一跃成为光刻机老大。但是,Arm与客户的关系并不融洽,主要是其商业模式属于专利授权,Arm的定价及约束非常严苛,比如今年4月,Arm改变了收费模式。此前,客户支付技术授权费来购买Arm的IP授权,价格取决于授权技术的复杂程度,并且Arm还会根据芯片厂商的处理器价格抽取一定的版税,版权按照单个芯片售价的1%~2%来计算。未来,ARM计划不再根据“芯片价值”向厂商收取使用其设计的专利费,而是根据“终端价值”收费,希望以此大幅提振专利收入。很多终端厂商不由怒批:“Arm是在明目张胆的和客户抢利润,是在吸合作伙伴的血,简直就是蛀虫行径!”专利霸权也引发了Arm与大客户高","images":[{"img":"https://static.tigerbbs.com/de47c888a0991f182fe0adbbb894d716","width":"1077","height":"318"},{"img":"https://static.tigerbbs.com/75f2a8fe3f795f232b2aae2af4342b75","width":"1442","height":"614"},{"img":"https://static.tigerbbs.com/806d38b62a2c0f46ac2155440f375264","width":"908","height":"629"}],"top":1,"highlighted":2,"essential":2,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/218775976120560","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":5,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":936,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":201771480436736,"gmtCreate":1690268037270,"gmtModify":1690268038560,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/FUT/NQmain\">$NQ100指数主连 2309(NQmain)$ </a><v-v data-views=\"1\"></v-v>","listText":"<a href=\"https://laohu8.com/FUT/NQmain\">$NQ100指数主连 2309(NQmain)$ </a><v-v data-views=\"1\"></v-v>","text":"$NQ100指数主连 2309(NQmain)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/201771480436736","isVote":1,"tweetType":1,"viewCount":24,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":625660904,"gmtCreate":1676441447808,"gmtModify":1676441448530,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","listText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","text":"$恒生科技指数(HSTECH)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/625660904","isVote":1,"tweetType":1,"viewCount":46,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":625913952,"gmtCreate":1676012152877,"gmtModify":1676012153912,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","listText":"<a href=\"https://laohu8.com/S/HSTECH\">$恒生科技指数(HSTECH)$ </a><v-v data-views=\"1\"></v-v>","text":"$恒生科技指数(HSTECH)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/625913952","isVote":1,"tweetType":1,"viewCount":133,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":629139310,"gmtCreate":1670325245430,"gmtModify":1670325247104,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/629139310","repostId":"1168253231","repostType":2,"isVote":1,"tweetType":1,"viewCount":1081,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":620572002,"gmtCreate":1669878441906,"gmtModify":1669878443630,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/620572002","repostId":"828353131","repostType":1,"repost":{"id":828353131,"gmtCreate":1633849871673,"gmtModify":1633849871673,"author":{"id":"3549029666728994","authorId":"3549029666728994","name":"蕴翔财经","avatar":"https://static.tigerbbs.com/eedeb6c7dae5914a1e7e9bbe4abc51ac","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3549029666728994","idStr":"3549029666728994"},"themes":[],"title":"Whatfix完成对印度学习管理平台Nittio Learn的收购","htmlText":"据外媒报道,印度SaaS初创公司Whatfix已经完成对当地学习管理平台Nittio Learn的收购,但具体收购金额并未透露。Whatfix由Vara Kumar和Khadim Batti创立于2014年,主要通过其SaaS产品为客户提供数字化部署解决方案(DAS),帮助企业提升员工入职、培训及自助服务等方面的效率。在悉尼、伦敦、班加罗尔、圣何塞和旧金山等地均有办事处。Nittio Learn则由Aravindan Rs、Gagandeep Singh Josan和Ritu Josan于2013年创立,主要是为公司提供员工培训服务,丰富员工技能,从而提高其工作效率。Whatfix曾在今年6月进行一笔规模为9000万美元的融资,由软银愿景基金2号领投,红杉资本(印度)和Eight Roads Ventures等参投,助其估值实现400%的增长,达到6亿美元。该公司联合创始人兼CEO Khadim Batti表示,收购和合并是公司策略的一个重要组成部分,已经留出预算做收购,并将组建专门的收购团队。而通过此次收购,Whatfix能提高其培训能力,创造出更多个性化,互动性强且适应用户需求的内容。此外,Nittoio Learn的创始人Aravindan Rs、Gagandeep Singh Josan和团队都将加入Whatfix。","listText":"据外媒报道,印度SaaS初创公司Whatfix已经完成对当地学习管理平台Nittio Learn的收购,但具体收购金额并未透露。Whatfix由Vara Kumar和Khadim Batti创立于2014年,主要通过其SaaS产品为客户提供数字化部署解决方案(DAS),帮助企业提升员工入职、培训及自助服务等方面的效率。在悉尼、伦敦、班加罗尔、圣何塞和旧金山等地均有办事处。Nittio Learn则由Aravindan Rs、Gagandeep Singh Josan和Ritu Josan于2013年创立,主要是为公司提供员工培训服务,丰富员工技能,从而提高其工作效率。Whatfix曾在今年6月进行一笔规模为9000万美元的融资,由软银愿景基金2号领投,红杉资本(印度)和Eight Roads Ventures等参投,助其估值实现400%的增长,达到6亿美元。该公司联合创始人兼CEO Khadim Batti表示,收购和合并是公司策略的一个重要组成部分,已经留出预算做收购,并将组建专门的收购团队。而通过此次收购,Whatfix能提高其培训能力,创造出更多个性化,互动性强且适应用户需求的内容。此外,Nittoio Learn的创始人Aravindan Rs、Gagandeep Singh Josan和团队都将加入Whatfix。","text":"据外媒报道,印度SaaS初创公司Whatfix已经完成对当地学习管理平台Nittio Learn的收购,但具体收购金额并未透露。Whatfix由Vara Kumar和Khadim Batti创立于2014年,主要通过其SaaS产品为客户提供数字化部署解决方案(DAS),帮助企业提升员工入职、培训及自助服务等方面的效率。在悉尼、伦敦、班加罗尔、圣何塞和旧金山等地均有办事处。Nittio Learn则由Aravindan Rs、Gagandeep Singh Josan和Ritu Josan于2013年创立,主要是为公司提供员工培训服务,丰富员工技能,从而提高其工作效率。Whatfix曾在今年6月进行一笔规模为9000万美元的融资,由软银愿景基金2号领投,红杉资本(印度)和Eight Roads Ventures等参投,助其估值实现400%的增长,达到6亿美元。该公司联合创始人兼CEO Khadim Batti表示,收购和合并是公司策略的一个重要组成部分,已经留出预算做收购,并将组建专门的收购团队。而通过此次收购,Whatfix能提高其培训能力,创造出更多个性化,互动性强且适应用户需求的内容。此外,Nittoio Learn的创始人Aravindan Rs、Gagandeep Singh Josan和团队都将加入Whatfix。","images":[{"img":"https://static.tigerbbs.com/eeda55a83712c10a955de8e6ef344c8d"}],"top":1,"highlighted":1,"essential":1,"paper":2,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/828353131","isVote":1,"tweetType":1,"viewCount":0,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"CN","totalScore":0},"isVote":1,"tweetType":1,"viewCount":1523,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":620543211,"gmtCreate":1669870805933,"gmtModify":1669870808875,"author":{"id":"3576073448098987","authorId":"3576073448098987","name":"kirascobol","avatar":"https://static.tigerbbs.com/bcf913bc9685b4c2d9c14beeec840ea7","crmLevel":1,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3576073448098987","idStr":"3576073448098987"},"themes":[],"htmlText":"这篇文章不错,转发给大家看看","listText":"这篇文章不错,转发给大家看看","text":"这篇文章不错,转发给大家看看","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/620543211","repostId":"1132114091","repostType":2,"repost":{"id":"1132114091","pubTimestamp":1669865458,"share":"https://www.laohu8.com/m/news/1132114091?lang=&edition=full","pubTime":"2022-12-01 11:30","market":"sh","language":"zh","title":"720倍上市回报,老虎红杉软银都去了这里","url":"https://stock-news.laohu8.com/highlight/detail?id=1132114091","media":"投中网","summary":"高回报的驱动下,越来越多的投资人投来目光。","content":"<html><head></head><body><blockquote><b>高回报的驱动下,越来越多的投资人投来目光。</b></blockquote><p>最近接连发现的几个事情,引起了我对印度SaaS市场的关注。</p><p>1、作为新兴的SaaS市场,红杉、老虎、软银等全球顶级投资机构扎堆去投资寻宝,而不同于在国内过于关注早期项目的打法,在该市场,早期、中后期,他们都有下注与布局。</p><p>2、不久前,印度本土的一家SaaS头部玩家宣布完成了年度收入破十亿美元的消息。</p><p>3、去年,该市场赴美上市的SaaS第一股,为早期投资人带来了高达720倍的回报。</p><p>虽然只有短短的三个信息点,但却拼凑出了该SaaS市场最吸引人的特征:新风向标、市场巨大、回报率高。</p><p>甚至有报告指出,不出十年,印度将成为全球第二大SaaS市场占有率的国家。印度的SaaS缘何能够获得健康生长,并持续得到全球顶级资本的关注?而这对于当前的中国SaaS厂商们又有何借鉴之处?</p><p><b>疯长</b></p><p>没人能否认,印度SaaS市场正在以极快的速度增长,并与全球参与者争夺这个行业的资金。</p><p>顺着这条线索,也让我发现了印度SaaS市场的火热与疯狂。这里不仅有数十家ARR(年经常性收入)过1亿美元的独角兽公司,这在国内SaaS厂商眼中被看做是一大难题,同样,印度企业对SaaS的接受能力和消费能力也让人刮目相看。</p><p>在市场潜力的维度上,有报告指出,印度SaaS市场预计到2025年将达到220-250亿美元规模,占全球SaaS的7-10%。</p><p>先来看一组数据。</p><p>今年,印度SaaS市场逆势增长,整体收入增加了20%,同时,SaaS企业数量也从2018年的1000家翻倍至今年的2000家。</p><p>如果说企业数量的增长不能完全体现这个行业的成长性,那么独角兽数量则可以作为一个注解。</p><p>在过去的三年半里,印度的SaaS独角兽数量从仅有的两家企业增长到20家。仅在2022年的前四个月,印度就有四个新名字被添加到这个名单中。</p><p>当然,独角兽的长成离不开资本的助力。此前,我在《VC不爱SaaS了?》中曾提到印度作为SaaS崛起的新兴地,投融资市场也十分活跃。最新数据显示,今年印度SaaS的融资金额将上升62.5%达到65亿美元。</p><p>其实,有报道称印度SaaS元年是2010年,比国内还早上几年。但直到2019年,印度SaaS初创企业获得资本市场的全面加注。</p><p>除了印度本土的投资机构,像老虎、红杉、软银这样的大佬也加入战局,值得一提的是,老虎格外看中印度的SaaS市场,甚至他们在印度选择新标的时,只将目光投向SaaS,这一年还出现了只专注于SaaS投资的基金。</p><p>资本的热度在2021年达到了一个小高潮,该年度印度SaaS公司融资金额打到了近48亿美元,比2020年增长了近3倍,比2018年增长了惊人的6倍。即使在今年,据投中网不完全统计,印度SaaS行业的融资也高达数十起,算是全球前三活跃的市场之一。</p><p>同样,我们前文也提到了印度SaaS厂商为投资者带来的高额回报。可以看到,在这种高回报的驱动下,越来越多的投资人将目光投向了印度市场。</p><p><b>新宠</b></p><p>那么,什么样的SaaS厂商在印度市场最吸引投资人呢?分析来看,我认为有三点,做全球化市场,以中小企业为目标客户,产品丰富且客源稳定。</p><p>我们仍以Zoho为例,最新数据显示,其用户量达到7000多万,遍及180多个国家和地区,这也勾勒Zoho自己的目标用户,即主要面向中小微企业。这样的定位也使得Zoho在过去的几年里,保持以每年超过40%的营收增长速度在发展。</p><p>同样,近期我们也关注到,总部位于海得拉巴的HR SaaS厂商Keka完成了5700万美元的A轮融资,这刷新了印度SaaS领域同轮次的记录。在没有接受外部融资前,Keka的成绩也比较瞩目,比如在2020年其实现了7倍的销售额增长,到2021年底,客户超过5500家。</p><p>再比如,刚刚完成1.5亿美元新一轮融资的印度企业数字化管理服务提供商Icertis,这是一家做合同智能平台的公司,数据显示, Icertis管理的合同数超过1000多万,覆盖40多种语言和90多个国家/地区,这些合同价值超过1万亿美元。</p><p>分析人士称,印度SaaS初创企业迎合了小型企业和云原生初创企业的庞大市场。如今印度中小型企业正在探索云,以提高业务敏捷性并构建能力来执行那些对于传统技术而言耗时且成本高昂的任务。</p><p>据数据估计,到2025年,印度SMB行业将为横向SaaS解决方案提供87亿美元的市场机会——比2020年的估计市场增长52%。零售、制造和教育预计将占总量的近一半市场机会。财务、会计和支付系统是中小型企业中更受欢迎的SaaS 解决方案,同时越来越多地采用CRM、ERP和以营销为中心的解决方案。</p><p>当然,纵使印度中小企业市场潜力巨大,但支撑起多家公司的高速增长,甚至助力Zoho营收突破10亿美元也是有相当难度的。</p><p>在这高额的营收背后,海外市场也是一个不可忽视的重要组成。</p><p>我们发现很多印度本土市场SaaS公司会将全球化,将海外市场作为重要的战略布局。这样一来,不仅增加了营收的多元化和稳定性,也提高了产品的丰富度以及易用性。</p><p>也正是因为印度SaaS厂商抓住了全球不断增长的成熟企业群体。故有报告称,印度SaaS公司有望在2025年实现300亿美元的收入,占据全球SaaS市场8%至9%的份额。</p><p>此外,印度SaaS之所以能够在当下还能获得融资的原因还在于,印度SaaS的早期融资企业是有一定的收入和客源的,像是FusionCharts、Kayako、Zoho和Wingify等这些先锋,这与中美市场三五个人的SaaS创业团队就出来融资是完全不同的。</p><p>稳定收入的支持,也从某种程度上拉高了印度SaaS公司的PS,一些印度公司的表现甚至超过了美国同行。</p><p>总的来看,2019年以来,客户需求的爆发,资本的加持,海外市场的拓展,让印度SaaS市场得到了迅速成长,而这一趋势也将继续延续。</p><p><b>答案</b></p><p>飘风不终朝,骤雨不终日。</p><p>作为全球市场上重要的技术革命,SaaS在中国的路还将继续走下去。而通过对印度SaaS市场的了解,我发现中印市场其实有些共同之处,或者说,从印度的经验,我们可以发现一些SaaS行业的通解。</p><p><b>首先,有投资人指出,风投兴趣的增加在于越来越多的印度SaaS企业取得成功并在全球扩张的结果。</b></p><p>在他看来,对SaaS公司有利的是它们能够轻松服务全球市场,即需要最少的现场交付或基础设施投资才能在任何其他国家/地区扩展。</p><p>而现在,国内SaaS大部分企业将业务重点布局放在了国内市场,比如在中小企业SaaS市场活力下降时,多数选择了进入政企大客户市场。</p><p>在这里,我们不评判目标客户的选择,只是想提个醒,或许在国内的中小企业领域和海外市场,SaaS厂商还大有可为,当然现在越来越多的厂商也开始探索和布局全球市场,目前来看,这是一件难而正确的事情。</p><p><b>其次,国内SaaS也曾经历过中小企业需求的爆发,这跟当前印度数字经济的扩张、更多工作空间进入混合模式,如出一辙。</b></p><p>但不同的是,当时的受益者并非只有SaaS创业厂商,而是更多的被钉钉、企微、飞书这样的平台型厂商获益。也正是如此,直到现在,这些平台型厂商依旧能够有比较健康的现金流和订阅量。</p><p>如果无法依靠自己单打独斗,那么利用好平台厂商来丰富自己的产品,从而吸引更多的客户也不失为一个选择。</p><p>知情人士透露,通过加入国内的一些平台上,有的SaaS企业在今年获得了超50%的增长,他们分布在低代码、HR等赛道中。</p><p><b>第三,说到底,国内的SaaS厂商比印度厂商走的要快一步。</b></p><p>这一步不是指国内SaaS的营收更好,现金流更稳定,而是说国内已经过了资本最热的阶段。早在2019年,国内资本对SaaS的追逐就已经到达了最高峰。</p><p>当前,在国内SaaS市场,不是投资人不再看好这个行业,只是不再盲目地为那些现金流不佳,收入做不上去的企业投资。毕竟,SaaS对投资人的吸引力就在于在强大的基本面之上,具有可预测的收入。</p><p>那么,在资本冷静谨慎的阶段,国内企业则可以像印度那些白手起家的SaaS厂商一样,做一些产品和确定性的增长,量力而行。</p><p>在这个大浪淘沙的关键节点,谁能提高增长率和利润率,加大收入粘性,才能获得下轮游戏的入场券。</p></body></html>","source":"tzw","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>720倍上市回报,老虎红杉软银都去了这里</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n720倍上市回报,老虎红杉软银都去了这里\n</h2>\n\n<h4 class=\"meta\">\n\n\n2022-12-01 11:30 北京时间 <a href=https://mp.weixin.qq.com/s/-rbXQ6t4UmsDGrJI2j4mXw><strong>投中网</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>高回报的驱动下,越来越多的投资人投来目光。最近接连发现的几个事情,引起了我对印度SaaS市场的关注。1、作为新兴的SaaS市场,红杉、老虎、软银等全球顶级投资机构扎堆去投资寻宝,而不同于在国内过于关注早期项目的打法,在该市场,早期、中后期,他们都有下注与布局。2、不久前,印度本土的一家SaaS头部玩家宣布完成了年度收入破十亿美元的消息。3、去年,该市场赴美上市的SaaS第一股,为早期投资人带来了...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/-rbXQ6t4UmsDGrJI2j4mXw\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/433eb422d90e0dc75fe30f5a6ad16a3f","relate_stocks":{},"source_url":"https://mp.weixin.qq.com/s/-rbXQ6t4UmsDGrJI2j4mXw","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1132114091","content_text":"高回报的驱动下,越来越多的投资人投来目光。最近接连发现的几个事情,引起了我对印度SaaS市场的关注。1、作为新兴的SaaS市场,红杉、老虎、软银等全球顶级投资机构扎堆去投资寻宝,而不同于在国内过于关注早期项目的打法,在该市场,早期、中后期,他们都有下注与布局。2、不久前,印度本土的一家SaaS头部玩家宣布完成了年度收入破十亿美元的消息。3、去年,该市场赴美上市的SaaS第一股,为早期投资人带来了高达720倍的回报。虽然只有短短的三个信息点,但却拼凑出了该SaaS市场最吸引人的特征:新风向标、市场巨大、回报率高。甚至有报告指出,不出十年,印度将成为全球第二大SaaS市场占有率的国家。印度的SaaS缘何能够获得健康生长,并持续得到全球顶级资本的关注?而这对于当前的中国SaaS厂商们又有何借鉴之处?疯长没人能否认,印度SaaS市场正在以极快的速度增长,并与全球参与者争夺这个行业的资金。顺着这条线索,也让我发现了印度SaaS市场的火热与疯狂。这里不仅有数十家ARR(年经常性收入)过1亿美元的独角兽公司,这在国内SaaS厂商眼中被看做是一大难题,同样,印度企业对SaaS的接受能力和消费能力也让人刮目相看。在市场潜力的维度上,有报告指出,印度SaaS市场预计到2025年将达到220-250亿美元规模,占全球SaaS的7-10%。先来看一组数据。今年,印度SaaS市场逆势增长,整体收入增加了20%,同时,SaaS企业数量也从2018年的1000家翻倍至今年的2000家。如果说企业数量的增长不能完全体现这个行业的成长性,那么独角兽数量则可以作为一个注解。在过去的三年半里,印度的SaaS独角兽数量从仅有的两家企业增长到20家。仅在2022年的前四个月,印度就有四个新名字被添加到这个名单中。当然,独角兽的长成离不开资本的助力。此前,我在《VC不爱SaaS了?》中曾提到印度作为SaaS崛起的新兴地,投融资市场也十分活跃。最新数据显示,今年印度SaaS的融资金额将上升62.5%达到65亿美元。其实,有报道称印度SaaS元年是2010年,比国内还早上几年。但直到2019年,印度SaaS初创企业获得资本市场的全面加注。除了印度本土的投资机构,像老虎、红杉、软银这样的大佬也加入战局,值得一提的是,老虎格外看中印度的SaaS市场,甚至他们在印度选择新标的时,只将目光投向SaaS,这一年还出现了只专注于SaaS投资的基金。资本的热度在2021年达到了一个小高潮,该年度印度SaaS公司融资金额打到了近48亿美元,比2020年增长了近3倍,比2018年增长了惊人的6倍。即使在今年,据投中网不完全统计,印度SaaS行业的融资也高达数十起,算是全球前三活跃的市场之一。同样,我们前文也提到了印度SaaS厂商为投资者带来的高额回报。可以看到,在这种高回报的驱动下,越来越多的投资人将目光投向了印度市场。新宠那么,什么样的SaaS厂商在印度市场最吸引投资人呢?分析来看,我认为有三点,做全球化市场,以中小企业为目标客户,产品丰富且客源稳定。我们仍以Zoho为例,最新数据显示,其用户量达到7000多万,遍及180多个国家和地区,这也勾勒Zoho自己的目标用户,即主要面向中小微企业。这样的定位也使得Zoho在过去的几年里,保持以每年超过40%的营收增长速度在发展。同样,近期我们也关注到,总部位于海得拉巴的HR SaaS厂商Keka完成了5700万美元的A轮融资,这刷新了印度SaaS领域同轮次的记录。在没有接受外部融资前,Keka的成绩也比较瞩目,比如在2020年其实现了7倍的销售额增长,到2021年底,客户超过5500家。再比如,刚刚完成1.5亿美元新一轮融资的印度企业数字化管理服务提供商Icertis,这是一家做合同智能平台的公司,数据显示, Icertis管理的合同数超过1000多万,覆盖40多种语言和90多个国家/地区,这些合同价值超过1万亿美元。分析人士称,印度SaaS初创企业迎合了小型企业和云原生初创企业的庞大市场。如今印度中小型企业正在探索云,以提高业务敏捷性并构建能力来执行那些对于传统技术而言耗时且成本高昂的任务。据数据估计,到2025年,印度SMB行业将为横向SaaS解决方案提供87亿美元的市场机会——比2020年的估计市场增长52%。零售、制造和教育预计将占总量的近一半市场机会。财务、会计和支付系统是中小型企业中更受欢迎的SaaS 解决方案,同时越来越多地采用CRM、ERP和以营销为中心的解决方案。当然,纵使印度中小企业市场潜力巨大,但支撑起多家公司的高速增长,甚至助力Zoho营收突破10亿美元也是有相当难度的。在这高额的营收背后,海外市场也是一个不可忽视的重要组成。我们发现很多印度本土市场SaaS公司会将全球化,将海外市场作为重要的战略布局。这样一来,不仅增加了营收的多元化和稳定性,也提高了产品的丰富度以及易用性。也正是因为印度SaaS厂商抓住了全球不断增长的成熟企业群体。故有报告称,印度SaaS公司有望在2025年实现300亿美元的收入,占据全球SaaS市场8%至9%的份额。此外,印度SaaS之所以能够在当下还能获得融资的原因还在于,印度SaaS的早期融资企业是有一定的收入和客源的,像是FusionCharts、Kayako、Zoho和Wingify等这些先锋,这与中美市场三五个人的SaaS创业团队就出来融资是完全不同的。稳定收入的支持,也从某种程度上拉高了印度SaaS公司的PS,一些印度公司的表现甚至超过了美国同行。总的来看,2019年以来,客户需求的爆发,资本的加持,海外市场的拓展,让印度SaaS市场得到了迅速成长,而这一趋势也将继续延续。答案飘风不终朝,骤雨不终日。作为全球市场上重要的技术革命,SaaS在中国的路还将继续走下去。而通过对印度SaaS市场的了解,我发现中印市场其实有些共同之处,或者说,从印度的经验,我们可以发现一些SaaS行业的通解。首先,有投资人指出,风投兴趣的增加在于越来越多的印度SaaS企业取得成功并在全球扩张的结果。在他看来,对SaaS公司有利的是它们能够轻松服务全球市场,即需要最少的现场交付或基础设施投资才能在任何其他国家/地区扩展。而现在,国内SaaS大部分企业将业务重点布局放在了国内市场,比如在中小企业SaaS市场活力下降时,多数选择了进入政企大客户市场。在这里,我们不评判目标客户的选择,只是想提个醒,或许在国内的中小企业领域和海外市场,SaaS厂商还大有可为,当然现在越来越多的厂商也开始探索和布局全球市场,目前来看,这是一件难而正确的事情。其次,国内SaaS也曾经历过中小企业需求的爆发,这跟当前印度数字经济的扩张、更多工作空间进入混合模式,如出一辙。但不同的是,当时的受益者并非只有SaaS创业厂商,而是更多的被钉钉、企微、飞书这样的平台型厂商获益。也正是如此,直到现在,这些平台型厂商依旧能够有比较健康的现金流和订阅量。如果无法依靠自己单打独斗,那么利用好平台厂商来丰富自己的产品,从而吸引更多的客户也不失为一个选择。知情人士透露,通过加入国内的一些平台上,有的SaaS企业在今年获得了超50%的增长,他们分布在低代码、HR等赛道中。第三,说到底,国内的SaaS厂商比印度厂商走的要快一步。这一步不是指国内SaaS的营收更好,现金流更稳定,而是说国内已经过了资本最热的阶段。早在2019年,国内资本对SaaS的追逐就已经到达了最高峰。当前,在国内SaaS市场,不是投资人不再看好这个行业,只是不再盲目地为那些现金流不佳,收入做不上去的企业投资。毕竟,SaaS对投资人的吸引力就在于在强大的基本面之上,具有可预测的收入。那么,在资本冷静谨慎的阶段,国内企业则可以像印度那些白手起家的SaaS厂商一样,做一些产品和确定性的增长,量力而行。在这个大浪淘沙的关键节点,谁能提高增长率和利润率,加大收入粘性,才能获得下轮游戏的入场券。","news_type":1},"isVote":1,"tweetType":1,"viewCount":987,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"lives":[]}