不花钱不舒服斯基
2023-05-03
你这翻译一半不翻译另一半的,就是个标题党。带着偏向性的引导大众!
75岁“AI教父”离职谷歌!痛悔毕生工作,无法阻止人类AI大战
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":658717829,"tweetId":"658717829","gmtCreate":1683118504262,"gmtModify":1683118506179,"author":{"id":3578200935740881,"idStr":"3578200935740881","authorId":3578200935740881,"authorIdStr":"3578200935740881","name":"不花钱不舒服斯基","avatar":"https://static.tigerbbs.com/1a6236793774a9f1f003d04b05e61db7","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":8,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":4,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>你这翻译一半不翻译另一半的,就是个标题党。带着偏向性的引导大众!</p></body></html>","htmlText":"<html><head></head><body><p>你这翻译一半不翻译另一半的,就是个标题党。带着偏向性的引导大众!</p></body></html>","text":"你这翻译一半不翻译另一半的,就是个标题党。带着偏向性的引导大众!","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/658717829","repostId":1199630925,"repostType":2,"repost":{"id":"1199630925","kind":"news","pubTimestamp":1683112653,"share":"https://www.laohu8.com/m/news/1199630925?lang=&edition=full","pubTime":"2023-05-03 19:17","market":"us","language":"zh","title":"75岁“AI教父”离职谷歌!痛悔毕生工作,无法阻止人类AI大战","url":"https://stock-news.laohu8.com/highlight/detail?id=1199630925","media":"新智元","summary":"入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。","content":"<html><head></head><body><blockquote><strong>入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。</strong></blockquote><p>深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/acc3dc261cb6d19c118db0dec4afd246\" title=\"\" tg-width=\"1080\" tg-height=\"274\"/></p><blockquote>为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。</blockquote><p>纽约时报的报道中,<strong>Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!</strong></p><p>而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「<strong>我对自己的毕生工作,感到非常后悔。</strong>」</p><p>如今,距离Hinton入职谷歌,刚好十年。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/07cba7e99a153efea7808c87b17f73f3\" title=\"\" tg-width=\"1080\" tg-height=\"539\"/></p><p>对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/bc57c36a9353f834c098a870764d3ee3\" title=\"\" tg-width=\"1080\" tg-height=\"138\"/></p><p>这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/57e6b2dfbcf492352f10bb283f4ae936\" title=\"\" tg-width=\"1080\" tg-height=\"215\"/></p><p>你应该劝说你的<strong>学生Yann LeCun和Ilya Sutskever。</strong></p><p>值得一提的是,<strong>ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/979e8bfcc446a48ed0014bfce965f78b\" title=\"\" tg-width=\"894\" tg-height=\"122\"/></p><p style=\"text-align: justify;\"><strong>一、AI「关键时刻」,人类控制不住了</strong></p><p><strong>被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/32ef17a1808b7107fc4afb63ecda40f7\" title=\"\" tg-width=\"1080\" tg-height=\"1079\"/></p><p>今年3月末,万名大佬签字发出联名信,呼吁暂停训练比GPT-4更强大的AI六个月。</p><p>图灵三巨头中,Bengio高调签名、LeCun旗帜鲜明地反对,唯有Hinton一言不发,耐人寻味地保持沉默。</p><p>而Hinton提出离职的时间,正是在此之后的4月份。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c01d138ffdaba0cd164e2aebb481c2a8\" title=\"\" tg-width=\"1080\" tg-height=\"522\"/></p><p>从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。</p><p>许多人关注着这位人工智能教父的态度。</p><p>在CBS的一次采访中,Hinton表示<strong>「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」</strong></p><p><strong>从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。</strong></p><p>先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。</p><p>盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。</p><p>与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。</p><p>因为<strong>生成式人工智能可能已经成为产生错误信息的工具,并在未来的某个时候,可能会对人类构成威胁。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cef4539a95bf98f77c5b55bee4dc416f\" title=\"\" tg-width=\"1080\" tg-height=\"544\"/></p><p>在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。</p><p>在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。</p><p>其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。</p><p>在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。</p><p>他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。</p><p>忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。</p><p><strong>选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。</strong></p><blockquote><strong>我对我的毕生工作,感到十分后悔。</strong></blockquote><p>我只能这样安慰自己:即使没有我,也会有别人。</p><p>上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。</p><p>作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。</p><p>早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。</p><p>在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。</p><p>而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。</p><p>如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」</p><p><strong>二、开启了历史,也见证了历史</strong></p><p>1972年,Hinton在爱丁堡大学开始了他的研究生生涯。</p><p>在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。</p><p>当时,很少有研究人员相信这个观点。但这成了他毕生的心血。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d552b8b5c5693a7a4280beae46945622\" title=\"\" tg-width=\"1080\" tg-height=\"845\"/></p><p>2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。</p><p>神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。</p><p>2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而<strong>神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f5be91b8a83f3b12921adceb354fc299\" title=\"\" tg-width=\"764\" tg-height=\"430\"/></p><p>而<strong>Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7bee7581b3dd1aada97e10623412904d\" title=\"\" tg-width=\"1080\" tg-height=\"801\"/></p><p>大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。</p><p>那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。</p><p>2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。</p><p>Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但<strong>它们在其他方面正在超越人类的智力。</strong></p><p>GPT-4发布当天,Hinton曾表示,</p><blockquote><strong>毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。</strong></blockquote><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/709cee80e763a579cfff98b95d39ae20\" title=\"\" tg-width=\"1080\" tg-height=\"259\"/></p><p>Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。</p><p>对此,Hinton谈到人工智能技术时表示,<strong>随着科技公司改进人工智能系统,它们变得越来越危险。</strong></p><p>看看五年前和现在的情况,如果还要继续传播这项技术,<strong>后果就太可怕了!</strong></p><p>在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。</p><p>他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。</p><p>这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。</p><p>但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。</p><p><strong>Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/425ca3973d95d0c10cdee98bc20a3dd1\" title=\"\" tg-width=\"948\" tg-height=\"533\"/></p><p>他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。</p><p style=\"text-align: justify;\">他甚至还担心,人工智能技术迟早会颠覆就业市场。</p><p>如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。</p><p>未来,他表示自己很担忧,<strong>GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。</strong></p><p>人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2e925c3bd920da91f7622c583db84eab\" title=\"\" tg-width=\"1080\" tg-height=\"608\"/></p><p><strong>他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。</strong></p><p>上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。<strong>当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9986cb5fff621512eb94a52e93f05a35\" title=\"\" tg-width=\"500\" tg-height=\"223\"/></p><p>在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。</p><blockquote>而现在,我不再那么想了。</blockquote><p>许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。</p><p>他指出,<strong>谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f5b9918243bf0d197706a8a933bde70e\" title=\"\" tg-width=\"1080\" tg-height=\"608\"/></p><p>但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。</p><p><strong>三、网友热议:连Hinton都离职了,下一个会是?</strong></p><p>有网友认为,Hinton对于的AI的看法太悲观了。</p><p>我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/eb1c950cb1d3bd3fdf85946b04751a1d\" title=\"\" tg-width=\"1080\" tg-height=\"207\"/></p><p>甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d85d2022d3bf1976b5ea62350ddb9cc5\" title=\"\" tg-width=\"1080\" tg-height=\"214\"/></p><p>还有人对谷歌「负责任」这一观点提出异议:</p><p>-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/dd548ecfde5935ea30d758a285ba2682\" title=\"\" tg-width=\"1080\" tg-height=\"319\"/></p><p>谷歌大脑和DeepMind合并这一事,与此相关吗?</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/63cca6e0da9ca440c1eb7e9a046552be\" title=\"\" tg-width=\"1080\" tg-height=\"126\"/></p><p>还有网友发出疑问,<strong>连Hinton都离职了,下一个会是?</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/5af0457bde5654978d92bb351c417eb2\" title=\"\" tg-width=\"520\" tg-height=\"144\"/></p><p></p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>75岁“AI教父”离职谷歌!痛悔毕生工作,无法阻止人类AI大战</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n75岁“AI教父”离职谷歌!痛悔毕生工作,无法阻止人类AI大战\n</h2>\n\n<h4 class=\"meta\">\n\n\n2023-05-03 19:17 北京时间 <a href=https://mp.weixin.qq.com/s/cixl0rVzoKX5KJdt_wawBw><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/cixl0rVzoKX5KJdt_wawBw\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/32ef17a1808b7107fc4afb63ecda40f7","relate_stocks":{"GOOG":"谷歌"},"source_url":"https://mp.weixin.qq.com/s/cixl0rVzoKX5KJdt_wawBw","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1199630925","content_text":"入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」如今,距离Hinton入职谷歌,刚好十年。对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。你应该劝说你的学生Yann LeCun和Ilya Sutskever。值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。一、AI「关键时刻」,人类控制不住了被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。今年3月末,万名大佬签字发出联名信,呼吁暂停训练比GPT-4更强大的AI六个月。图灵三巨头中,Bengio高调签名、LeCun旗帜鲜明地反对,唯有Hinton一言不发,耐人寻味地保持沉默。而Hinton提出离职的时间,正是在此之后的4月份。从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。许多人关注着这位人工智能教父的态度。在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。因为生成式人工智能可能已经成为产生错误信息的工具,并在未来的某个时候,可能会对人类构成威胁。在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。我对我的毕生工作,感到十分后悔。我只能这样安慰自己:即使没有我,也会有别人。上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」二、开启了历史,也见证了历史1972年,Hinton在爱丁堡大学开始了他的研究生生涯。在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。当时,很少有研究人员相信这个观点。但这成了他毕生的心血。2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。GPT-4发布当天,Hinton曾表示,毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。他甚至还担心,人工智能技术迟早会颠覆就业市场。如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。而现在,我不再那么想了。许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。三、网友热议:连Hinton都离职了,下一个会是?有网友认为,Hinton对于的AI的看法太悲观了。我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」还有人对谷歌「负责任」这一观点提出异议:-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家谷歌大脑和DeepMind合并这一事,与此相关吗?还有网友发出疑问,连Hinton都离职了,下一个会是?","news_type":1},"isVote":1,"tweetType":1,"viewCount":1713,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":61,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/658717829"}
精彩评论