YYDSy
2023-05-31
没上车
“AI可能灭绝人类,堪比核战争!” 超350位大佬联名发声
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":182268567642136,"tweetId":"182268567642136","gmtCreate":1685507761002,"gmtModify":1685507763168,"author":{"id":3573741287247210,"idStr":"3573741287247210","authorId":3573741287247210,"authorIdStr":"3573741287247210","name":"YYDSy","avatar":"https://static.tigerbbs.com/70c8d360e811d26ad589a24d15de63a1","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":1,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>没上车</p></body></html>","htmlText":"<html><head></head><body><p>没上车</p></body></html>","text":"没上车","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/182268567642136","repostId":2339231977,"repostType":4,"repost":{"id":"2339231977","kind":"highlight","pubTimestamp":1685506671,"share":"https://www.laohu8.com/m/news/2339231977?lang=&edition=full","pubTime":"2023-05-31 12:17","market":"us","language":"zh","title":"“AI可能灭绝人类,堪比核战争!” 超350位大佬联名发声","url":"https://stock-news.laohu8.com/highlight/detail?id=2339231977","media":"华尔街见闻","summary":"谷歌DeepMind和Anthropic CEO,以及图灵奖获得者都签署了这封联名信。英伟达市值一度超过万亿美元,AI风头正盛的背后,公众的担忧也越来越多,科技圈再次流出了一封重磅公开信。当地时间5月","content":"<html><head></head><body><blockquote><strong>谷歌DeepMind和Anthropic CEO,以及图灵奖获得者都签署了这封联名信。</strong></blockquote><p style=\"text-align: justify;\">英伟达市值一度超过万亿美元,AI风头正盛的背后,公众的担忧也越来越多,科技圈再次流出了一封重磅公开信。</p><p style=\"text-align: justify;\">当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,<strong>称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。<br/></strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/3919f297c6c4b115a1460004b90a8028\" title=\"\" tg-width=\"676\" tg-height=\"364\"/></p><p>整个声明只有一句话,22个单词:</p><p><strong>“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”</strong></p><p>拜登政府近几个月表示,人工智能对公共安全、隐私和民主构成威胁,但政府对其监管的权力有限。</p><blockquote><strong>OpenAI创始人领衔,超350位AI大佬签名</strong></blockquote><p><strong>目前已有超350位AI大佬签署了上述联名公开信</strong>,包括OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode三大AI公司掌门人等。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/45eeee0f689e413524634f98d287d2a7\" title=\"\" tg-width=\"554\" tg-height=\"1522\"/></p><p><strong>图灵奖获得者、被誉为人工智能“教父”的Geoffrey Hinton和Yoshua Bengio也赫然在列。</strong></p><p><strong>名单里也不乏中国学者的身影</strong>,包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园。</p><p>其他签署人还包括微软首席技术官Kevin Scott,前联合国裁军事务高级代表Angela Kane,Skype联合创始人Jaan Tallinn,Quora首席执行官Adam D'Angelo。</p><p>他们表示,虽然公众一直在承认人工智能的风险,但还有更多挑战需要讨论。他们还想“为越来越多的专家和公众人物创造共同知识,他们也认真对待先进人工智能领域存在的一些最严重的风险”。</p><p>值得一提的是,目前,<strong>微软创始人比尔·盖茨没有签署这一联名信。</strong></p><blockquote><strong>“危险!立刻停下所有大型AI研究”</strong></blockquote><p>自去年ChatGPT发布以来,科技行业掀起了一场竞争激烈的AI竞赛,同时也引发公众对于这项未知技术的恐惧。</p><p>今年3月份,Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等科技大佬发表联名公开信,<strong>呼吁暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。</strong></p><p>公开信强调了AI在迅猛发展,但却没有对其进行相应的规划和管理:</p><p><strong>“最近几个月人工智能实验室掀起AI狂潮,它们疯狂地开展AI竞赛,开发和部署越来越强大的AI。</strong></p><p><strong>不幸的是,目前为止,没有任何人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。”</strong></p><p>信中提到,如今人工智能在一般任务上变得与人类一样有竞争力,我们必须问自己:</p><p>“是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?</p><p><strong>是否应该冒着失去对人类文明控制的风险?</strong>”</p><p>答案是否定的,公开信指出,<strong>只有当我们确信强大的AI系统的效果是积极的,其风险是可控的,才应该开发。</strong></p><p>因此,公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。</p><p>“我们应该从危险的竞赛中退后一步,……让如今最强大的模型<strong>更加准确、安全</strong>。</p><p>让我们享受一个漫长的人工智能夏天,而不是毫无准备地匆忙进入秋天。”</p><blockquote><strong>AI教父:痛悔毕生工作,无法阻止人类AI大战</strong></blockquote><p>5月初,深度学习泰斗、人工智能教父Geoffrey Hinton突然宣布离职谷歌,终于可以畅所欲言地谈论AI的风险了。<br/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/acc3dc261cb6d19c118db0dec4afd246\" title=\"\" tg-width=\"1080\" tg-height=\"274\"/></p><p>正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:<strong>“我对自己的毕生工作,感到非常后悔。”</strong></p><p>在媒体报道中,Hinton直接警示世人:<strong>注意,前方有危险,前方有危险,前方有危险!</strong></p><p>在一次采访中,Hinton表示“我们几乎已经让学会计算机如何自我改进了,<strong>这很危险,我们必须认真考虑,如何控制它。</strong>”</p><p>他曾指出,<strong>谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!</strong></p><p><strong>他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。</strong></p><p><strong>他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4ed375d339a014b2b25985d64d12cce0\" title=\"图片来自《西部世界》\" tg-width=\"1080\" tg-height=\"607\"/><span>图片来自《西部世界》</span></p><p>上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。<strong>当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。</strong></p><p>从人工智能的开创者到末日预言者,Hinton的转变,也许标志着<strong>科技行业正处于几十年来最重要的一个拐点。</strong></p></body></html>","source":"wallstreetcn_api","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>“AI可能灭绝人类,堪比核战争!” 超350位大佬联名发声</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n“AI可能灭绝人类,堪比核战争!” 超350位大佬联名发声\n</h2>\n\n<h4 class=\"meta\">\n\n\n2023-05-31 12:17 北京时间 <a href=https://mp.weixin.qq.com/s/9E5214u8xFF621wqbiUEdg><strong>华尔街见闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>谷歌DeepMind和Anthropic CEO,以及图灵奖获得者都签署了这封联名信。英伟达市值一度超过万亿美元,AI风头正盛的背后,公众的担忧也越来越多,科技圈再次流出了一封重磅公开信。当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。整个声明只有一句话,22个单词:...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/9E5214u8xFF621wqbiUEdg\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/8e1f8714fd568c2c469a3deade788e7d","relate_stocks":{"IE00B19Z4B17.USD":"LEGG MASON ROYCE US SMALL CAP OPPORTUNITY \"A\" (USD) ACC","MSFT":"微软","BK4187":"航天航空与国防","IE0031619046.USD":"LEGG MASON ROYCE US SMALL CAP OPPORTUNITY \"A\" (USD) INC","IE00B7SZL793.SGD":"Legg Mason Royce - US Small Cap Opportunity A Acc SGD-H","IE00B66KJ199.SGD":"LEGG MASON ROYCE US SMALL CAP OPPORTUNITY \" A\" (SGD) ACC","BK4572":"航空租赁"},"source_url":"https://mp.weixin.qq.com/s/9E5214u8xFF621wqbiUEdg","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2339231977","content_text":"谷歌DeepMind和Anthropic CEO,以及图灵奖获得者都签署了这封联名信。英伟达市值一度超过万亿美元,AI风头正盛的背后,公众的担忧也越来越多,科技圈再次流出了一封重磅公开信。当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。整个声明只有一句话,22个单词:“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”拜登政府近几个月表示,人工智能对公共安全、隐私和民主构成威胁,但政府对其监管的权力有限。OpenAI创始人领衔,超350位AI大佬签名目前已有超350位AI大佬签署了上述联名公开信,包括OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode三大AI公司掌门人等。图灵奖获得者、被誉为人工智能“教父”的Geoffrey Hinton和Yoshua Bengio也赫然在列。名单里也不乏中国学者的身影,包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园。其他签署人还包括微软首席技术官Kevin Scott,前联合国裁军事务高级代表Angela Kane,Skype联合创始人Jaan Tallinn,Quora首席执行官Adam D'Angelo。他们表示,虽然公众一直在承认人工智能的风险,但还有更多挑战需要讨论。他们还想“为越来越多的专家和公众人物创造共同知识,他们也认真对待先进人工智能领域存在的一些最严重的风险”。值得一提的是,目前,微软创始人比尔·盖茨没有签署这一联名信。“危险!立刻停下所有大型AI研究”自去年ChatGPT发布以来,科技行业掀起了一场竞争激烈的AI竞赛,同时也引发公众对于这项未知技术的恐惧。今年3月份,Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等科技大佬发表联名公开信,呼吁暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。公开信强调了AI在迅猛发展,但却没有对其进行相应的规划和管理:“最近几个月人工智能实验室掀起AI狂潮,它们疯狂地开展AI竞赛,开发和部署越来越强大的AI。不幸的是,目前为止,没有任何人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。”信中提到,如今人工智能在一般任务上变得与人类一样有竞争力,我们必须问自己:“是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?是否应该冒着失去对人类文明控制的风险?”答案是否定的,公开信指出,只有当我们确信强大的AI系统的效果是积极的,其风险是可控的,才应该开发。因此,公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。“我们应该从危险的竞赛中退后一步,……让如今最强大的模型更加准确、安全。让我们享受一个漫长的人工智能夏天,而不是毫无准备地匆忙进入秋天。”AI教父:痛悔毕生工作,无法阻止人类AI大战5月初,深度学习泰斗、人工智能教父Geoffrey Hinton突然宣布离职谷歌,终于可以畅所欲言地谈论AI的风险了。正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:“我对自己的毕生工作,感到非常后悔。”在媒体报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!在一次采访中,Hinton表示“我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。”他曾指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。图片来自《西部世界》上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。从人工智能的开创者到末日预言者,Hinton的转变,也许标志着科技行业正处于几十年来最重要的一个拐点。","news_type":1},"isVote":1,"tweetType":1,"viewCount":1784,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":6,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/182268567642136"}
精彩评论