T0000023454
04-08
AI背后站着的永远是人
AI教父”辛顿:AI将操控人类
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":293112588218584,"tweetId":"293112588218584","gmtCreate":1712580325411,"gmtModify":1712580328265,"author":{"id":3544441872957647,"authorId":3544441872957647,"authorIdStr":"3544441872957647","name":"T0000023454","avatar":"https://static.tigerbbs.com/e1fef35c6b6f60123deced20857bcbf6","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":7,"crmLevelSwitch":1,"individualDisplayBadges":[],"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>AI背后站着的永远是人</p></body></html>","htmlText":"<html><head></head><body><p>AI背后站着的永远是人</p></body></html>","text":"AI背后站着的永远是人","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/293112588218584","repostId":1134320095,"repostType":4,"repost":{"id":"1134320095","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1712569221,"share":"https://www.laohu8.com/m/news/1134320095?lang=&edition=full","pubTime":"2024-04-08 17:40","market":"us","language":"zh","title":"AI教父”辛顿:AI将操控人类","url":"https://stock-news.laohu8.com/highlight/detail?id=1134320095","media":"老虎资讯综合","summary":"如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。","content":"<html><head></head><body><p>据日经中文网,被誉为“AI教父”的多伦多大学名誉教授杰弗里·辛顿(Geoffrey Hinton)近日接受采访讲述了AI和人类的未来。杰弗里·辛顿奠定了作为目前AI核心技术的“深度学习”的基础。2023年,他突然从已工作10多年的美国谷歌辞职,开始谈论AI的威胁。</p><p>辛顿在采访中表示,如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。比方说,假设向AI下达遏制气候变化的指令。AI会意识到为了达到目的而有必要将人类清除,我担心真的会付诸实施的风险。今后还可能会出现不同的AI相互竞争的局面。例如,如果AI之间发生数据中心等资源的争夺,这将是一个像生物体一样推动进化的过程。面对通过竞争变得更聪明的AI,我们人类将落在后面。很多人主张,要防止AI失控,只要关掉电源开关就可以。但超越人类智慧的AI可以用语言操纵我们。或许会试图说服我们不要关掉开关。</p><p>辛顿称,我认为未来10年内将出现自主杀死人类的机器人武器。在第一次世界大战中造成悲剧的化学武器被后来的国际协议所禁止。机器人武器或许迟早也会被限制。但是,这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。我们谁也不希望看到被AI支配的未来。这一事实将成为各国在迈向AI武器限制的过程中保持一致步调的基础。就像核战争一样。这显然对所有国家都有危害,所以美国和前苏联才能在冷战期间就避免核战争达成协议。</p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>AI教父”辛顿:AI将操控人类</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nAI教父”辛顿:AI将操控人类\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2024-04-08 17:40</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>据日经中文网,被誉为“AI教父”的多伦多大学名誉教授杰弗里·辛顿(Geoffrey Hinton)近日接受采访讲述了AI和人类的未来。杰弗里·辛顿奠定了作为目前AI核心技术的“深度学习”的基础。2023年,他突然从已工作10多年的美国谷歌辞职,开始谈论AI的威胁。</p><p>辛顿在采访中表示,如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。比方说,假设向AI下达遏制气候变化的指令。AI会意识到为了达到目的而有必要将人类清除,我担心真的会付诸实施的风险。今后还可能会出现不同的AI相互竞争的局面。例如,如果AI之间发生数据中心等资源的争夺,这将是一个像生物体一样推动进化的过程。面对通过竞争变得更聪明的AI,我们人类将落在后面。很多人主张,要防止AI失控,只要关掉电源开关就可以。但超越人类智慧的AI可以用语言操纵我们。或许会试图说服我们不要关掉开关。</p><p>辛顿称,我认为未来10年内将出现自主杀死人类的机器人武器。在第一次世界大战中造成悲剧的化学武器被后来的国际协议所禁止。机器人武器或许迟早也会被限制。但是,这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。我们谁也不希望看到被AI支配的未来。这一事实将成为各国在迈向AI武器限制的过程中保持一致步调的基础。就像核战争一样。这显然对所有国家都有危害,所以美国和前苏联才能在冷战期间就避免核战争达成协议。</p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/f2d2c2276852563d5db00509e96af6d5","relate_stocks":{},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1134320095","content_text":"据日经中文网,被誉为“AI教父”的多伦多大学名誉教授杰弗里·辛顿(Geoffrey Hinton)近日接受采访讲述了AI和人类的未来。杰弗里·辛顿奠定了作为目前AI核心技术的“深度学习”的基础。2023年,他突然从已工作10多年的美国谷歌辞职,开始谈论AI的威胁。辛顿在采访中表示,如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。比方说,假设向AI下达遏制气候变化的指令。AI会意识到为了达到目的而有必要将人类清除,我担心真的会付诸实施的风险。今后还可能会出现不同的AI相互竞争的局面。例如,如果AI之间发生数据中心等资源的争夺,这将是一个像生物体一样推动进化的过程。面对通过竞争变得更聪明的AI,我们人类将落在后面。很多人主张,要防止AI失控,只要关掉电源开关就可以。但超越人类智慧的AI可以用语言操纵我们。或许会试图说服我们不要关掉开关。辛顿称,我认为未来10年内将出现自主杀死人类的机器人武器。在第一次世界大战中造成悲剧的化学武器被后来的国际协议所禁止。机器人武器或许迟早也会被限制。但是,这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。我们谁也不希望看到被AI支配的未来。这一事实将成为各国在迈向AI武器限制的过程中保持一致步调的基础。就像核战争一样。这显然对所有国家都有危害,所以美国和前苏联才能在冷战期间就避免核战争达成协议。","news_type":1},"isVote":1,"tweetType":1,"viewCount":164,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"upFlag":false,"length":20,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/293112588218584"}
精彩评论