殷雷
2023-05-31
美国是会炒热度的,一个东西可以不停的画饼
突发!ChatGPT之父警告AI可能灭绝人类,350名AI权威签署联名公开信
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":182249943535704,"tweetId":"182249943535704","gmtCreate":1685503143624,"gmtModify":1685503145315,"author":{"id":3554798511144574,"idStr":"3554798511144574","authorId":3554798511144574,"authorIdStr":"3554798511144574","name":"殷雷","avatar":"https://static.tigerbbs.com/47e551c80b4c13db04889e9f9aa16cbb","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"currentWearingBadge":{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-1","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"出道虎友","description":"加入老虎社区500天","bigImgUrl":"https://static.tigerbbs.com/0e4d0ca1da0456dc7894c946d44bf9ab","smallImgUrl":"https://static.tigerbbs.com/0f2f65e8ce4cfaae8db2bea9b127f58b","grayImgUrl":"https://static.tigerbbs.com/c5948a31b6edf154422335b265235809","redirectLinkEnabled":0,"hasAllocated":1,"isWearing":1,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2022.09.12","individualDisplayEnabled":0},"individualDisplayBadges":[],"fanSize":0,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body>美国是会炒热度的,一个东西可以不停的画饼</body></html>","htmlText":"<html><head></head><body>美国是会炒热度的,一个东西可以不停的画饼</body></html>","text":"美国是会炒热度的,一个东西可以不停的画饼","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/182249943535704","repostId":2339810407,"repostType":2,"repost":{"id":"2339810407","pubTimestamp":1685457619,"share":"https://www.laohu8.com/m/news/2339810407?lang=&edition=full","pubTime":"2023-05-30 22:40","market":"us","language":"zh","title":"突发!ChatGPT之父警告AI可能灭绝人类,350名AI权威签署联名公开信","url":"https://stock-news.laohu8.com/highlight/detail?id=2339810407","media":"爱范儿","summary":"AI不断狂飙,但相关的监管、审计手段却迟迟没有跟上。","content":"<html><head></head><body><blockquote>降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。</blockquote><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/150b19ca04353e4659d53e1ce7b0209e\" alt=\"\" title=\"\" tg-width=\"1080\" tg-height=\"1440\"/></p><p>就在刚刚,AI 领域传出一封重要的公开信。</p><p>包括 “ChatGPT 之父”Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。</p><p>这封信只有一句声明:</p><p><strong>降低人工<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。</strong></p><p>签署人包括三个领先的 AI 公司高管:</p><p>OpenAI 首席执行官 Sam Altman;</p><p>Google DeepMind 首席执行官 Demis Hassabis;</p><p>Anthropic 的首席执行官 Dario Amodei;</p><p>更重要的是,名单里还有 Geoffrey Hinton 和 Yoshua Bengio 两位人工智能的“教父”。</p><p>超过 350 名从事人工智能工作的高管、研究人员和工程师签署了这份由非盈利组织人工智能安全中心发布的公开信,认为人工智能具备可能导致人类灭绝的风险,应当将其视为与流行病和核战争同等的社会风险。</p><p>如今人们越来越担心 ChatGPT 等人工智能模型的发展可能对社会和就业带来的潜在威胁,很多人呼吁针对 AI 行业进行更强力的监管,否则它将对社会造成不可挽回的破坏。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d1d336b5cb83b8e290a02b1f07ab967f\" alt=\"\" title=\"\" tg-width=\"770\" tg-height=\"440\"/></p><p>AI 不断狂飙,但相关的监管、审计手段却迟迟没有跟上,这也意味着没有人能够保证 AI 工具以及使用 AI 工具的过程中的安全性。</p><p>在上周,Sam Altman 和另外两位 OpenAI 的高管提出应该建立类似国际原子能机构这样国际组织来安全监管 AI 的发展,他呼吁国际间领先的人工智能制造商应该展开合作,并要求政府强化对尖端人工智能制造商的监管。</p><p>其实早在 3 月,就一篇有关叫停 6 个月 AI 研究的公开信火遍了全网。</p><p>该信呼吁所有的 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型,暂停时间至少 6 个月,为的就是把这些可怕的幻想扼杀在摇篮之中。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/365c550734c2f49a36c739a2ae7786ca\" alt=\"\" title=\"\" tg-width=\"759\" tg-height=\"422\"/></p><p>该联名信已经获得了包括 2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等多位知名人士的签名支持,联名人数超过千人。</p><p><strong>公开信的原文如下:</strong></p><p>人工智能具有与人类竞争的智能,这可能给社会和人类带来深刻的风险,这已经通过大量研究得到证实,并得到了顶级AI实验室的认可。正如广泛认可的阿西洛马尔人工智能原则(Asilomar AI Principles)所指出的,先进的 AI 可能代表地球生命历史上的重大变革,因此应该以相应的关注和资源进行规划和管理。</p><p><strong>不幸的是,即使在最近几个月, AI 实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞争,而没有人能够理解、预测或可靠地控制这些数字化思维,即使是它们的创造者也无法做到这一点。</strong></p><p>现代 AI 系统现在已经在通用任务方面具有与人类竞争的能力,我们必须问自己:</p><p>我们应该让机器充斥我们的信息渠道,传播宣传和谎言吗?</p><p>我们应该将所有工作都自动化,包括那些令人满足的工作吗?</p><p>我们应该发展可能最终超过、取代我们的非人类思维吗?</p><p>我们应该冒失控文明的风险吗?</p><p>这些决策不应该由非选举产生的科技领导人来负责。只有当我们确信AI系统的影响是积极的,风险是可控的,我们才应该开发强大的AI系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。OpenAI 最近关于人工智能的声明指出:“在某个时候,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,需要同意限制用于创建新模型的计算增长速度。”我们同意。现在就是那个时刻。</p><p>因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的时间,不要训练比 GPT-4 更强大的 AI 系统。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实行一个暂禁令。</p><p>AI 实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议,这些协议应该由独立的外部专家严格审核和监督。</p><p>这些协议应确保遵守它们的系统在合理怀疑范围之外是安全的。这并不意味着暂停 AI 发展,而只是从不断迈向更大、不可预测的黑箱模型及其突现能力的危险竞赛中退一步。</p><p>AI 研究和开发应该重点放在提高现有强大、先进系统的准确性、安全性、可解释性、透明度、鲁棒性、对齐、可信度和忠诚度。</p><p>与此同时,AI 开发者必须与政策制定者合作,大力加速 AI 治理体系的发展。这些至少应包括:</p><p>专门负责 AI 的新的、有能力的监管机构;</p><p>对高能力 AI 系统和大型计算能力池的监督和跟踪;</p><p>用于区分真实与合成内容、跟踪模型泄漏的溯源和水印系统;</p><p>健全的审计和认证生态系统;对 AI 造成的损害承担责任;</p><p>技术AI安全研究的充足公共资金;</p><p>应对 AI 引起的巨大经济和政治变革(特别是对民主制度的影响)的资深机构。</p><p>人类可以在 AI 的帮助下享受繁荣的未来。在成功创造出强大的 AI 系统之后,我们现在可以享受一个“AI 盛夏”,在其中我们收获回报,将这些系统明确地用于造福所有人,并让社会有机会适应。</p><p>在面临可能对社会造成灾难性影响的其他技术上,社会已经按下了暂停键。在这里,我们也可以这样做。让我们享受一个漫长的 AI 盛夏,而不是毫无准备地冲向秋天。</p></body></html>","source":"ifeng_tech","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>突发!ChatGPT之父警告AI可能灭绝人类,350名AI权威签署联名公开信</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n突发!ChatGPT之父警告AI可能灭绝人类,350名AI权威签署联名公开信\n</h2>\n\n<h4 class=\"meta\">\n\n\n2023-05-30 22:40 北京时间 <a href=https://tech.ifeng.com/c/8QDNYn2hEk6><strong>爱范儿</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。就在刚刚,AI 领域传出一封重要的公开信。包括 “ChatGPT 之父”Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。这封信只有一句声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,...</p>\n\n<a href=\"https://tech.ifeng.com/c/8QDNYn2hEk6\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/8b9732daa42768bf09da87d887c35f8f","relate_stocks":{"LU0312595415.SGD":"Schroder ISF Global Climate Change Equity A Acc SGD","LU0640476718.USD":"THREADNEEDLE (LUX) US CONTRARIAN CORE EQ \"AU\" (USD) ACC","IE00B1XK9C88.USD":"PINEBRIDGE US LARGE CAP RESEARCH ENHANCED \"A\" (USD) ACC","LU0310800379.SGD":"FTIF - Templeton Global A Acc SGD","BK4573":"虚拟现实","LU0061474960.USD":"天利环球焦点基金AU Acc","LU0353189680.USD":"富国美国全盘成长基金Cl A Acc","BK4561":"索罗斯持仓","BK4581":"高盛持仓","IE00BSNM7G36.USD":"NEUBERGER BERMAN SYSTEMATIC GLOBAL SUSTAINABLE VALUE \"A\" (USD) ACC","LU0128525689.USD":"TEMPLETON GLOBAL BALANCED \"A\"(USD) ACC","LU0820561909.HKD":"ALLIANZ INCOME AND GROWTH \"AM\" (HKD) INC","LU0353189763.USD":"ALLSPRING US ALL CAP GROWTH FUND \"I\" (USD) ACC","LU0310800965.SGD":"FTIF - Templeton Global Balanced A Acc SGD","IE00BZ1G4Q59.USD":"LEGG MASON CLEARBRIDGE US EQUITY SUSTAINABILITY LEADER \"A\"(USD) INC (A)","BK4514":"搜索引擎","LU0130102774.USD":"Natixis Harris Associates US Equity RA USD","LU0648000940.SGD":"Natixis Harris Associates Global Equity RA SGD","IE00BWXC8680.SGD":"PINEBRIDGE US LARGE CAP RESEARCH ENHANCED \"A5\" (SGD) ACC","LU0097036916.USD":"贝莱德美国增长A2 USD","LU0320765059.SGD":"FTIF - Franklin US Opportunities A Acc SGD","IE00B1BXHZ80.USD":"Legg Mason ClearBridge - US Appreciation A Acc USD","LU0198837287.USD":"UBS (LUX) EQUITY SICAV - USA GROWTH \"P\" (USD) ACC","LU0672654240.SGD":"FTIF - Franklin US Opportunities A Acc SGD-H1","LU0648001328.SGD":"Natixis Harris Associates US Equity RA SGD","LU0316494557.USD":"FRANKLIN GLOBAL FUNDAMENTAL STRATEGIES \"A\" ACC","LU0061475181.USD":"THREADNEEDLE (LUX) AMERICAN \"AU\" (USD) ACC","LU0444971666.USD":"天利全球科技基金","LU0276348264.USD":"THREADNEEDLE (LUX) GLOBAL DYNAMIC REAL RETURN\"AUP\" (USD) INC","IE0034235188.USD":"PINEBRIDGE GLOBAL FOCUS EQUITY \"A\" (USD) ACC","BK4585":"ETF&股票定投概念","LU0354030511.USD":"ALLSPRING U.S. LARGE CAP GROWTH \"I\" (USD) ACC","LU0130103400.USD":"Natixis Harris Associates Global Equity RA USD","IE00BKVL7J92.USD":"Legg Mason ClearBridge - US Equity Sustainability Leaders A Acc USD","LU0708994859.HKD":"TEMPLETON GLOBAL \"A\" (HKD) ACC","BK4576":"AR","BK4533":"AQR资本管理(全球第二大对冲基金)","LU0882574139.USD":"富达环球消费行业基金A ACC","LU0256863811.USD":"ALLIANZ US EQUITY \"A\" INC","BK4566":"资本集团","LU0557290698.USD":"施罗德环球可持续增长基金","BK4538":"云计算","LU0128525929.USD":"TEMPLETON GLOBAL \"A\" (USD) ACC","LU0957808578.USD":"THREADNEEDLE (LUX) GLOBAL TECHNOLOGY \"ZU\" (USD) ACC","BK4077":"互动媒体与服务","LU0109391861.USD":"富兰克林美国机遇基金A Acc","BK4588":"碎股","BK4579":"人工智能","LU0417517546.SGD":"Allianz US Equity Cl AT Acc SGD","LU0052756011.USD":"TEMPLETON GLOBAL BALANCED \"A\" (USD) INC"},"source_url":"https://tech.ifeng.com/c/8QDNYn2hEk6","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2339810407","content_text":"降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。就在刚刚,AI 领域传出一封重要的公开信。包括 “ChatGPT 之父”Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。这封信只有一句声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。签署人包括三个领先的 AI 公司高管:OpenAI 首席执行官 Sam Altman;Google DeepMind 首席执行官 Demis Hassabis;Anthropic 的首席执行官 Dario Amodei;更重要的是,名单里还有 Geoffrey Hinton 和 Yoshua Bengio 两位人工智能的“教父”。超过 350 名从事人工智能工作的高管、研究人员和工程师签署了这份由非盈利组织人工智能安全中心发布的公开信,认为人工智能具备可能导致人类灭绝的风险,应当将其视为与流行病和核战争同等的社会风险。如今人们越来越担心 ChatGPT 等人工智能模型的发展可能对社会和就业带来的潜在威胁,很多人呼吁针对 AI 行业进行更强力的监管,否则它将对社会造成不可挽回的破坏。AI 不断狂飙,但相关的监管、审计手段却迟迟没有跟上,这也意味着没有人能够保证 AI 工具以及使用 AI 工具的过程中的安全性。在上周,Sam Altman 和另外两位 OpenAI 的高管提出应该建立类似国际原子能机构这样国际组织来安全监管 AI 的发展,他呼吁国际间领先的人工智能制造商应该展开合作,并要求政府强化对尖端人工智能制造商的监管。其实早在 3 月,就一篇有关叫停 6 个月 AI 研究的公开信火遍了全网。该信呼吁所有的 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型,暂停时间至少 6 个月,为的就是把这些可怕的幻想扼杀在摇篮之中。该联名信已经获得了包括 2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等多位知名人士的签名支持,联名人数超过千人。公开信的原文如下:人工智能具有与人类竞争的智能,这可能给社会和人类带来深刻的风险,这已经通过大量研究得到证实,并得到了顶级AI实验室的认可。正如广泛认可的阿西洛马尔人工智能原则(Asilomar AI Principles)所指出的,先进的 AI 可能代表地球生命历史上的重大变革,因此应该以相应的关注和资源进行规划和管理。不幸的是,即使在最近几个月, AI 实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞争,而没有人能够理解、预测或可靠地控制这些数字化思维,即使是它们的创造者也无法做到这一点。现代 AI 系统现在已经在通用任务方面具有与人类竞争的能力,我们必须问自己:我们应该让机器充斥我们的信息渠道,传播宣传和谎言吗?我们应该将所有工作都自动化,包括那些令人满足的工作吗?我们应该发展可能最终超过、取代我们的非人类思维吗?我们应该冒失控文明的风险吗?这些决策不应该由非选举产生的科技领导人来负责。只有当我们确信AI系统的影响是积极的,风险是可控的,我们才应该开发强大的AI系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。OpenAI 最近关于人工智能的声明指出:“在某个时候,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,需要同意限制用于创建新模型的计算增长速度。”我们同意。现在就是那个时刻。因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的时间,不要训练比 GPT-4 更强大的 AI 系统。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实行一个暂禁令。AI 实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议,这些协议应该由独立的外部专家严格审核和监督。这些协议应确保遵守它们的系统在合理怀疑范围之外是安全的。这并不意味着暂停 AI 发展,而只是从不断迈向更大、不可预测的黑箱模型及其突现能力的危险竞赛中退一步。AI 研究和开发应该重点放在提高现有强大、先进系统的准确性、安全性、可解释性、透明度、鲁棒性、对齐、可信度和忠诚度。与此同时,AI 开发者必须与政策制定者合作,大力加速 AI 治理体系的发展。这些至少应包括:专门负责 AI 的新的、有能力的监管机构;对高能力 AI 系统和大型计算能力池的监督和跟踪;用于区分真实与合成内容、跟踪模型泄漏的溯源和水印系统;健全的审计和认证生态系统;对 AI 造成的损害承担责任;技术AI安全研究的充足公共资金;应对 AI 引起的巨大经济和政治变革(特别是对民主制度的影响)的资深机构。人类可以在 AI 的帮助下享受繁荣的未来。在成功创造出强大的 AI 系统之后,我们现在可以享受一个“AI 盛夏”,在其中我们收获回报,将这些系统明确地用于造福所有人,并让社会有机会适应。在面临可能对社会造成灾难性影响的其他技术上,社会已经按下了暂停键。在这里,我们也可以这样做。让我们享受一个漫长的 AI 盛夏,而不是毫无准备地冲向秋天。","news_type":1},"isVote":1,"tweetType":1,"viewCount":929,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":39,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/182249943535704"}
精彩评论