Hexaemeron
03-19
奥特曼最新万字访谈:GPT-5能力提升超乎想象
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":286056648499200,"tweetId":"286056648499200","gmtCreate":1710856367415,"gmtModify":1710856978738,"author":{"id":3465563891168647,"idStr":"3465563891168647","authorId":3465563891168647,"authorIdStr":"3465563891168647","name":"Hexaemeron","avatar":"https://static.tigerbbs.com/88a48dba0be904800c516b31ffd78319","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":9,"crmLevelSwitch":0,"currentWearingBadge":{"badgeId":"1f74612b6f95455f970edd02b5316db8-6","templateUuid":"1f74612b6f95455f970edd02b5316db8","name":"收益排行","description":"Top 3%","bigImgUrl":"https://static.tigerbbs.com/6fbaa8e552e02eae8e6a2ce5d6566431","smallImgUrl":"https://static.tigerbbs.com/98862e418516dab972bed7aaf561dec6","grayImgUrl":"https://static.tigerbbs.com/3a5ca933a5695ed2e862b228f6c09ee5","redirectLinkEnabled":0,"redirectLink":"https://www.itigerup.com/activity/market/2023/stock-contest?adcode=StockContest2023","hasAllocated":1,"isWearing":1,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2023.12.20","individualDisplayEnabled":0},"individualDisplayBadges":[],"fanSize":2,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p><br></p></body></html>","htmlText":"<html><head></head><body><p><br></p></body></html>","text":"","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/286056648499200","repostId":1127593301,"repostType":2,"repost":{"id":"1127593301","kind":"news","pubTimestamp":1710816376,"share":"https://www.laohu8.com/m/news/1127593301?lang=&edition=full","pubTime":"2024-03-19 10:46","market":"us","language":"zh","title":"奥特曼最新万字访谈:GPT-5能力提升超乎想象","url":"https://stock-news.laohu8.com/highlight/detail?id=1127593301","media":"硬AI","summary":"算力将成为未来最重要的货币。","content":"<html><head></head><body><p>3月19日,OpenAI CEO 山姆·奥特曼(Sam Altman)再度做客美国知名播客栏目Lex Friedman。</p><p style=\"text-align: justify;\">在这次持续了近两个小时的采访中,奥特曼不仅深入剖析了OpenAI董事会近期的变动,还畅谈了首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)的未来动向、与马斯克起诉案相关的纷争,以及引发巨大讨论的AI文字转视频工具Sora、豪掷7万亿美元的芯片计划、即将推出的新一代大语言模型GPT-5,乃至通用人工智能(AGI)的远景规划等。</p><p style=\"text-align: justify;\">重点包括:</p><blockquote><ul style=\"\"><li><p>算力将成为未来最宝贵的财富之一,会成为未来的“货币”,人工智能的发展将是一场巨大的权力斗争。</p></li><li><p><strong>公司、组织、国家都可能为了争夺这份未来的“货币”而展开竞争。</strong>在这场竞争中,OpenAI得关注如何公平、公正地分配和使用算力。不能让算力加剧社会不平等,而应该成为推动全人类进步的力量。</p></li><li><p>被罢免的那个周末痛苦万分,看自己的推文就像看悼词,董事会应该拥有重大的权利,但并不是从自身利益出发,而是能够对全世界负责,这一经历有助于增强韧性。</p></li><li><p>OpenAI正在寻找新的董事会成员,希望引入具有不同专业背景的人才,包括非营利组织、学习型公司、法律和治理等领域的专家。</p></li><li><p>GPT-4是一个重要的里程碑但并不足以改变世界,真正意义上的AGI应该能够显著提高科学发现的速度。</p></li><li><p>Ilya 从来没有见过通用人工智能(AGI),没有任何人见过,OpenAI也还没造出通用人工智能,Ilya对未来深思熟虑,非常关心人工智能的安全性和社会影响。</p></li><li><p><strong>对马斯克来说,诉讼OpenAI这件事并不是开源与否的问题</strong>,Grok之前从没开源过任何东西,直到有人指出马斯克这样做有些伪善,才在最近开源。</p></li><li><p><strong>开源模型在未来肯定有一席之地,尤其针对那些规模较小、可以在本地运行的模型。</strong></p></li><li><p>OpenAI的目标是创建能够理解和生成自然语言的系统,这些系统可以帮助人们更高效地完成任务。OpenAI最重要任务就是让每个人免费地使用AI,作为一项公共福利,通过提供强大的AI工具来赋能个人和社区,开源应该是有选择性的。</p></li><li><p>大部分真正的经济增长来自科学技术的进步,人工智能是一个工具,它将在更短的时间内帮助人类执行越来越多的任务,这让人类能够在更高层次上进行抽象思考。</p></li><li><p>人工智能可能更像是人类之间相互支撑、相互联系的社会结构。</p></li><li><p><strong>未来编程可能会以自然语言交互的方式进行,传统的编码方式可能会逐渐减少。</strong></p></li><li><p>目前AI安全研究者过于关注某些具体的技术进步,而忽视了其他一些重要的问题,人工智能军备竞赛是个双刃剑。</p></li><li><p>GPT-5的性能会全面提升,GPT-5和GPT-4的差距,可能会跟GPT-4和GPT-3一样大,仍旧在研究OpenAI机器人。</p></li><li><p>Sora将进一步展示了AI在创造复杂、动态和视觉吸引人的虚拟世界方面的巨大潜力,这些技术不仅对游戏和娱乐产业有重大意义,也为科学研究、教育和工业模拟等领域提供了新的可能性。</p></li><li><p style=\"text-align: justify;\">人工智能将推动人类社会持续进步。</p></li></ul></blockquote><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2169d075c2ab0e2407aeb6c2a3671744\" tg-width=\"640\" tg-height=\"354\"/></p><p style=\"text-align: justify;\">谈话内容,按顺序整理如下:</p><p style=\"text-align: justify;\">1:05 - OpenAI董事会纷争</p><p style=\"text-align: justify;\">18:31 - Ilya Sutskever</p><p style=\"text-align: justify;\">24:40 - 埃隆·马斯克诉讼案</p><p style=\"text-align: justify;\">34:32 - Sora</p><p style=\"text-align: justify;\">44:23 - GPT-4</p><p style=\"text-align: justify;\">55:32 - 记忆与隐私</p><p style=\"text-align: justify;\">1:02:36 - Q*</p><p style=\"text-align: justify;\">1:06:12 - GPT-5</p><p style=\"text-align: justify;\">1:09:27 - 7万亿美元的算力</p><p style=\"text-align: justify;\">1:17:35 - 谷歌和Gemini</p><p style=\"text-align: justify;\">1:28:40 - 跃升到GPT-5</p><p style=\"text-align: justify;\">1:32:24 - AGI(通用人工智能)</p><p style=\"text-align: justify;\">1:50:57 - 外星人</p><p style=\"text-align: justify;\">以下为访谈全文:</p><h2 id=\"id_1449182256\" style=\"text-align: start;\">OpenAI 董事会之争</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">请你带我了解一下从11月16日星期四开始的,或者对你来说是11月17日星期五的 OpenAI 董事会那一连串的事件。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">那确实是我一生中最痛苦的职业经历,混乱、羞耻、心烦,还有很多其他的负面情绪。当然也有不少好的方面,但我当时被肾上腺素冲得头昏眼花,从而能够停下来细细品味那些宝贵的经历。</p><p style=\"text-align: justify;\"><strong>我翻看了那个时期自己发的一条旧推特,感觉就像在读自己的悼词</strong>,看着别人对你说出的那些美好的话,感受到来自我所爱和在乎的人的强大支持,那真的非常美妙。</p><p style=\"text-align: justify;\">整个周末,尽管遭遇了一些不愉快的事情,但总体而言,我感受到的爱远远超过了恨。尽管当时感觉自己完全搞不懂发生了什么,接下来会发生什么,这感觉真的很糟糕。确实有些时候,我认为这可能会成为AI安全领域发生的最糟糕的事情之一。不过,我也觉得,它发生得相对较早是件好事。但我也很庆幸这一切发生得相对较早。</p><p style=\"text-align: justify;\">我认为在OpenAI成立和通用人工智能(AGI)诞生的过程中,注定会有一系列疯狂且具有爆炸性的事件发生,而且未来也许还会有更多疯狂的事情发生。这些事件虽然令人不安,但也为我们提供了宝贵的经验和教训,为未来应对更多挑战做好了准备。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但你有没有预感到,你可能会经历某种权力的角逐?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>通往AGI的道路肯定会充满激烈的权力角逐。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以你必须得经历这个过程,正如你所说,要尽可能频繁地迭代,弄清楚如何构建董事会的架构,如何进行组织管理,如何选对合作伙伴,以及如何有效沟通,目的是为了尽量减少权力斗争。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">没错</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">放轻松</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">但现在,那感觉像是一段已经过去的时光,曾经非常艰难、痛苦,难以忍受,但我们又回到了工作岗位,事情忙得不可开交,强度巨大,以至于我并没有太多时间去回想那段经历。那之后有一阵子,可能是一个月左右,或者说 45 天之后,我仿佛处于一种恍惚状态,每天都感觉自己像漂流瓶一样,茫然四顾。我的精神完全崩溃了,情绪也陷入了极度低落。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">就在个人心理层面上?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,非常痛苦。而且在那种情况下还得坚持管理 OpenAI,难度真的很大。我只想找个洞穴钻进去,好好休养一阵子。不过现在,我们又回到了奋战在我们的使命上。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,对于你这样有极高潜力打造 AGI 的人来说,回过头去反思董事会架构、权力动态、公司运作方式、研究与产品开发之间的张力、金钱等因素,无疑是有益的。这样一来,未来你在建立 AGI 的道路上,可以更加有条不紊,少一点戏剧性冲突。所以,不妨去那儿走一遭,不仅是为了你作为领导者的个人心理层面的成长,同时也是为了搞清楚董事会结构和所有那些复杂混乱的事务。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我确实从中学到了许多关于组织结构、激励机制以及我们对董事会的期望。在某种意义上,这种情况现在发生我觉得还是有它的价值的。我认为这可能不是 OpenAI 最后一次面对如此大的压力,但这无疑是一个相当紧张的时刻。我的公司差点就垮了,除了考虑很多其他我们必须为 AGI 准备好的事情外,思考<strong>如何打造一个有韧性的组织、如何构建一个能承受世界压力的结构体系,我认为这非常关键。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你能感觉到董事会在决策过程中的深度和严格程度吗?能否透露一下这种情形下涉及的人与人之间的动态是怎样的?是不是就几次对话后事态突然激化,然后就有人说“为什么不开除 Sam”这种话?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我认为董事会成员总体上都是出于好意的人,我相信在那种压力环境下,人们感到时间紧迫或其他什么,人们会做出不那么明智的决定都可以理解。我认为OpenAI面临的挑战之一将是,我们需要有一个擅长在压力下运作的董事会和团队。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你觉得董事会的权力过大了吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得董事会理应掌握重要的权力,但是,我们注意到,在大多数公司架构中,董事会通常需要对股东们负责。有时人们拥有超级投票权或其他什么。在这个情况下,我觉得对于我们的架构来说,我认为我们结构中的一个问题是,我们可能没有充分考虑到非营利组织董事会实际上掌握着很大的权力,他们并不真正向任何人负责,除了他们自己。这样有它的好处,但我们更希望的是 OpenAI 的董事会能够对全世界负责,尽管我们知道在实践中这可能很难做到。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以他们宣布成立了一个新的董事会。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">刚开始是一个新的小型董事会,现在又换成了新的正式董事会?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我们的董事会还没有最后敲定。我们已经添了一些成员,接下来还会继续增加。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">加了一些。好的。在新版本里修复了之前版本哪些可能出现的问题呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">旧董事会在大约一年时间里逐渐缩减了。起初是九个人,后来减到六个,接着我们在增补新成员上意见不统一。我觉得董事会中也缺乏经验丰富的成员。而现在 OpenAI 的新董事会成员们都有着更多的董事会工作经验。我认为这会有所改善。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这个问题受到了不少批评,比如有人对拉里·萨默斯被加入董事会表示不满。你们挑选董事会成员的过程是怎样的?这个过程中涉及哪些因素?</p><p style=\"text-align: justify;\">Sam Altman</p><p>选择Bret Taylor和萨默斯为董事会成员是在那个非常紧张的周末做出的决定,而那个周末真是就像坐过山车一样,给人一种大起大落的感觉。我们尝试就新的董事会成员名单达成一致,这些成员既要让这里的执行团队感到满意,也要得到原董事会成员的认可。</p><p> </p><p>实际上,萨默斯是原董事会成员推荐的人选之一。至于Bret,我想在那个疯狂周末之前,我就提议过他,但他当时很忙,不想接受这份工作。之后,我们确实需要帮助,他才加入进来。我们也考虑了很多其他人选,但我觉得如果我回来的话,我需要更换新的董事会成员。我不认为我可以在同样的人员配置下再次与原董事会合作,尽管后来我们决定让亚当·德安吉洛(Adam D'Angelo)留下。但我们考虑了各种配置,最终决定想要组建一个三人的董事会,并需要短时间内找到两名新的董事会成员。</p><p> </p><p>所以那些决定确实是直接做出的,你必须在战场上迅速做出决定。那时你没有时间设计严格的流程。对于之后的新的董事会成员,以及我们还将要继续添加的新成员,我们有一些认为对董事会来说重要的标准,我们希望这些人具备的不同专长。与招聘一名高管不同,他只需要把一个角色做好,但对于董事会成员来说,他需要需要在治理和思考方面表现出全方位的能力。因此,布雷特说的一句话我很认同,那就是我们想要以成批的形式招聘董事会成员,而不是一次一个地招聘。我们正在考虑的是一群能够带来非营利组织专业知识、公司运营专业知识、良好的法律和治理专业知识的人,这是我们试图优化的目标</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么,董事会成员个人的技术水平重要吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不是每个董事会成员都需要这类素养,但确实有一些人需要。这也是董事会职责一部分。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">人们可能还不太了解 OpenAI 的有意思的一面,我自己肯定也不够了解,那就是运营业务的所有那些细枝末节。当人们想到董事会,再想到那些戏剧化的元素,他们首先想到的是你。他们会思考,如果你们开发出通用人工智能(AGI)或者其他一些具有巨大影响的产品,并且成功将它们推向市场,那么你和董事会之间会有怎样的对话呢?他们还会考虑,在这种场景下,要组建一个怎样的团队来进行决策和讨论?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">你看,我认为董事会里肯定需要一些技术专家。同时,也需要那些会考虑到:“我们怎样部署这项技术才能最大限度地造福人类?”的人。还需要那些有着截然不同视角的人。我想,像你我这样的人可能会犯的一个错误就是以为只有技术上的理解才是关键,这确实是你希望董事会讨论的内容之一,但还有很多其他方面,比如这项技术将如何影响社会和人们的生活,这些你也同样希望能够在董事会中得到体现。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是在审查他们过去的成就记录,还是只是跟他们进行交流?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">过往经历很重要,但有些职位我完全不看重过往经历,<strong>只看他的上升势头,忽略掉Y轴的截距。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">谢谢你。感谢你用数学的方式向观众阐明问题。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">作为董事会成员,我确实更在乎 Y 轴截距。在这方面,我觉得对于过往业绩的记录能说的深入之处很多,而且经验是一种很难替代的东西。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是尝试将过往经历拟合为多项式函数还是指数函数?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这个比喻有点牵强。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">好的,你之前提到了那个周末经历的一些低谷时刻。在心理上,你都遇到了哪些挫折呢?你有没有想过干脆去亚马逊雨林,尝试一下阿亚瓦斯卡(一种致幻剂),然后就此隐匿天涯呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这段时间真的很糟糕,不过也有一些非常棒的时刻,我的手机简直要爆炸了,一直收到来自我日常工作的伙伴们,以及那些十年未见的老朋友们发来的暖心信息。我应该更加珍惜这些时刻,但当时我忙于应对危机,没能充分感受到这份温暖,不过这确实让人感觉很啊后。总体而言,那个周末非常痛苦,它就像是一场在公众视线中打响的战斗,出乎意料地让我筋疲力尽,远比我预期的要累。</p><p style=\"text-align: justify;\">通常争斗本就令人筋疲力尽,而这场尤其如此。董事会在周五下午做了这个决定。我真的很难获得任何答案,但我也觉得,既然董事会有权这么做,那么我就应该花点时间好好想想我接下来想要做什么。不过,我会试着在这件事中寻找隐藏的幸运。</p><p style=\"text-align: justify;\">我当时心想,我的目前职位在 OpenAI,或者至少过去是,负责运营一个规模相当大的公司。我一直最喜欢的部分就是与研究者们共事。然后我就在想,对,我完全可以去从事一项高度聚焦的 AGI 研究工作。这个想法让我感到很兴奋。当时我甚至没意识到,所有这些努力可能会化为泡影。那是在一个星期五的下午。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以你已经接受了这一的终结……</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">非常快,真的非常快。我确实经历了一段时间的迷茫和愤怒,但这种状态转瞬即逝。到了周五晚上,我已经在跟人讨论下一步该怎么做,而且我对此感到振奋。我记得是周五晚上,我首次听到我们执行团队的人说:“嘿,我们将会反击。” 然后,我带着兴奋的心情上床睡觉了,心想,向前冲。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你能睡着吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不多。有一段蛮奇怪的时期,大概四天半吧,我几乎没怎么睡觉,也没怎么吃东西,但是依然精力充沛。你会在战时了解到一些关于肾上腺素的奇特现象。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以你已经接受了,这个被你视为孩子的 OpenAI 会有失败的一天。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我当时对那个新东西特别激动。就那么想着,“行吧,这玩意儿确实疯了点,但管它呢。”</p><p style=\"text-align: justify;\">那天周六早上,两位董事会成员给我打电话说,“嘿,我们并不是想搅局。我们不打算在这里大把存储价值。我们能谈谈你回归的事情吗?”起初,我真的不想回去,但后来我又仔细思考了一番,我意识到我非常关心这里的人,我的合伙人和股东们。我爱这家公司。于是,我想了想,对他们说:“好吧,不过我有我的条件。”而那整个周末,是最让人痛苦的时刻,我不断地反思,也被告知,而且不只是我,我们整个团队都在想,我们正在努力维持 OpenAI 的稳定,而此时全世界似乎都在试图将其分崩离析,到处都有人在尝试挖角。</p><p style=\"text-align: justify;\">我们一直被告知,“好了,我们快要弄完了。我们快要完成了。我们只需要再多一点点时间。”这让人非常困惑。直到周日晚上,我几乎每隔几小时就会以为我们就要结束了,我们能找到方法让我回去,让一切恢复原状。但董事会随后任命了一位新的临时CEO,那一刻我感觉真的很难受。那是整件事中最低谷的时刻。我跟你说,虽然感觉非常痛苦,但我在那整个周末都感受到了很多爱。除了那个周日晚上的瞬间,我不会说我的感受是愤怒或恨,相反,我感受到了来自人们的爱,也对他们满怀爱意。那很痛苦,但那个周末的主导情绪是爱,而不是恨。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">您曾对 Mira Murati 给予高度评价,说她在那些关键的、平静的时刻给予了特别的帮助,就像您在推文中提到的那样。或许我们可以稍微绕个弯。您最欣赏 Mira 的什么特质呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">她在那个周末的混乱中表现得非常出色,但人们往往是在危机时刻,无论好坏,才会关注领导者的表现。然而,我真正看重的是,在一个平凡的周二早上 9 点 46 分,在日常的平淡和繁琐中,领导者如何行动。一个人怎样出席会议,他们作出决策的质量如何。这就是我提到的“静默时刻”的含义。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">绝大多数的工作都是日复一日,在一次次会议中慢慢推进的。只需要聚精会神,做出优秀的决策就行了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,看吧,你想要花费过去二十分钟探讨的那件事——我明白——是关于那个非常戏剧化的周末,但那并不是 OpenAI 的核心所在。<strong>OpenAI 的重心实际上在于其余的七年。</strong></p><p style=\"text-align: justify;\">这为我们提供了洞察人性的窗口,包括人性的极致以及或许正是在那些时刻,人类文明的某些毁坏和伟大成就得以显现,因此这非常具有启发性。</p><h2 id=\"id_2374727881\" style=\"text-align: start;\">Part 2:Ilya Sutskever 去哪了</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么关于 Ilya 的问题,我可以问你吗?他是不是被关在某个秘密核设施里作为人质?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不是</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么普通的秘密基地呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不是</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">一个不涉密的核设施怎么样?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">肯定也不是</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这事儿已经有点成梗了。你跟 Ilya 认识很长时间了对吧。他显然卷入了那场董事会的风波。现在你俩的关系怎样?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我非常喜爱 Ilya,对他也有着极大的敬意。关于他的计划,我现在真的没什么可以透露的。这应该由他来回答。不过,我真心希望我们能够持续合作,至少在我的职业生涯剩余时光里。他比我年轻那么一点,也许他会比我工作更长久一些。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">有个流传的段子说,他看到了一些东西,好像是他看到了AGI,这件事让他内心充满了忧虑。Ilya 到底看到了什么?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>Ilya 从来没有见过通用人工智能(AGI)</strong>。我们任何人都还没有。我们也还没造出通用人工智能。不过,Ilya身上有很多让我敬佩的品质,其中一个就是他非常重视关于通用人工智能及其广泛的安全问题,这包括它可能对社会造成的影响。随着我们不断地取得显著进展,这几年我最多的时间都是和伊利亚一起讨论这将意味着什么,我们需要怎么做才能确保做得正确,以保证我们的使命能够成功完成。</p><p style=\"text-align: justify;\">所以,虽然伊利亚没有见过 AGI,但他对确保我们在这个过程中行得正、走得稳的深思熟虑和忧虑,对人类来说是一份宝贵的贡献。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我过去与他有过不少交流。我觉得,每当他谈到技术,他总是持有一种长远的思考方式。他不太关心一年内会发生什么,而是在想象10年后的情况,基于首要原则去思考:“好的,如果这东西真的能够扩展开来,那么基本要素是什么呢?会有哪些发展?”这种思考方式为他们在关注所有的安全问题等方面打下了坚实的基础,这也让和他对话变得非常吸引人。你了解他为何近来鲜有发声吗?他是不是在做些灵魂深处的思索呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">再说一次,我不想代表 Ilya 发言。我觉得你应该亲自去问问他。他绝对是个思考深刻的人。我认为 Ilya 始终在以非常积极的方式进行灵魂探索。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,他还真懂得沉默的魅力。我听说他其实挺逗的,不过我个人还没机会见识过这一面。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当那种情况发生时,感觉真的很温馨。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我还没遇到过傻傻的Ilya,不过我也挺期待这一天呢。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我最近和他一起去了个晚宴,他当时正在和一只小狗玩,心情非常轻松、嬉皮,真的很让人觉得亲切。我当时就想:哇~这面是 Ilya 不太给外界看到的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么,就这整桩事情而言,你对董事会的架构满意吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">… 关于这一切及其走向,你有何看法?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我对新董事会的组建感到非常满意。在 OpenAI 的架构方面,董事会的职责之一就是进行审视,看看我们如何能够加强其结构的韧性。我们的首要任务是先确定新的董事会成员,但显然在这个过程中,我们对结构的认识有了显著的进步。我认为我没有什么特别深刻的见解。这是一段极其混乱和痛苦的经历。我觉得这就像一场怪异的完美风暴。这对我来说预示着未来的挑战,随着赌注的不断升高,我们需要有更为强健的治理结构、流程和团队。我很庆幸这一切在我还年轻时发生,但实际上这是一次异常艰难的经历。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这会不会使你在信任别人方面变得更加犹豫呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">就个人而言?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,我自认为是一个极度信任他人的人。我一向坚持的人生哲学是:不必太过担忧,不必在意那些偏执的疑虑和极端的可能性。这样做的代价可能是偶尔吃点小亏,但作为回报,你得以放松警惕地生活。然而这件事对我来说真的是晴天霹雳,我措手不及,它确实改变了我。我并不喜欢这种改变,但它确实影响了我对于对人默认信任的态度以及对潜在坏情况的规划。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你得在这方面多加留心。你担心自己会变得过于愤世嫉俗吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我不害怕自己会变得过于愤世嫉俗。我觉得我本性里就很不愤世嫉俗,但我担心,自己可能逐渐丧失那种对别人的本能信任。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我其实还没把握好,对于那些正致力于开发通用人工智能的人而言,是信任模式更为适宜,还是持怀疑态度更好。这条路你走得真有意思。不过说到架构,我其实更关注人这一层面。你怎么做到让自己周围都是那些既在打造酷炫东西,又能作出睿智选择的人?因为你挣的钱越多,这件事的影响力也就越大,周围的人就越发变得诡异。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得你完全可以就董事会成员的问题,以及我应该给予的信任程度,或者说我应该采取不同的做事方式提出种种意见。但如果说到这里的团队,我相信你会给我一个非常高的评价。对于那些我每天都要共事的人,我心中充满了巨大的感激、信任和尊重。我认为,让自己被这样的人包围是极其重要的。</p><h2 id=\"id_385340219\" style=\"text-align: start;\">Part 3:Elon Musk 的诉讼</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我们共同的朋友 Elon Musk 起诉了 OpenAI。在你看来,他批评的核心问题是什么?他有多少批评是站得住脚的?又有多少是误会或不对的?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我真的不清楚这到底是怎么一回事。最初,我们只认为自己将成为一个研究实验室,对这项技术未来的发展毫无头绪。那是七八年前的事了,现在想回忆起当时的情况真的很难,那个时候语言模型还没成为热门话题。我们甚至还没想到要开发一个 API 或者卖聊天机器人的访问权限。我们也没有想过要将其产品化。当时我们的想法就是,“我们就去做研究吧,至于研究成果能用来做什么,我们并不清楚。” 我想在探索完全新颖的事物时,你总是摸着石头过河,制定一些假设,而这些假设大多数最终都被证明是错误的。</p><p style=\"text-align: justify;\">接着,我们意识到我们需要做出一些不同的事情,并且需要巨额的资本。所以我们就在想,行吧,当前的结构显然不太合适。我们该怎样去补救?补了一次又一次,最终我们得到的东西确实让人不禁挑挑眉毛,至少可以这么形容。不过,我觉得我们在每一步都做出了合理的决策。这并不是说如果能有机会回到过去,有个先知在旁边指导,我就不会选择完全不同的做法。不过,当时我们手边可没有先知。不管怎样,至于埃隆真正的动机是什么,我真的不清楚。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">在 OpenAI 的博客文章中,他们给出的回应主要集中在为什么他们认为不应该继续推出完整版 GPT-3 API 的理由。他们提到了对模型潜在被滥用的担忧,以及他们认为现阶段需要加强监管和提高透明度。此外,他们也谈到了对于 AI 长期影响的责任感,并表示愿意与其他机构合作,确保 AI 的使用是安全和有益的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">哦,我们刚刚提到埃隆表达了一系列看法。这里是我们的陈述,或者说不是我们的陈述。这是对事件经过的一个描述。我们试图不带入个人情绪,只是陈述,“这就是历史。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我觉得 Elon 对你刚才提到的一点有些误解,也就是你们当时所面临的不确定性有多大。你们只是一帮小研究团队,疯狂地讨论着 AGI,而那时候,所有人都觉得这个想法很可笑。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">Elon 不久前还在疯狂地谈论发射火箭,那时候大家都对这个念头嗤之以鼻,所以我觉得他对这件事会有更多的共鸣。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我确实认为这里面有一些个人的因素。OpenAI 和这里的很多了不起的人决定与 Elon Musk 分道扬镳,因此存在一些个人层面的-</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">Elon 选择了离开</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你能具体说说吗?那种选择分道扬镳的情形?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">他觉得 OpenAI 快要失败了。他想要完全控制权来挽救局面。但我们想要继续沿着现在 OpenAI 所走的方向前进。他还想要特斯拉能够开展一个 AGI (人工通用智能)项目。他在不同时间点有过多种想法,包括把 OpenAI 变成一个他能控制的盈利性公司,或者是让它与特斯拉合并。我们并不同意这样做,于是他决定离开,这也挺好的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以你的意思是,正如那篇博客文章里提到的,他想要的是 OpenAI 能被特斯拉收购,或许是与微软的合作方式有点相似,或者说可能是一种更为戏剧化的形式。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我的记忆里,那个提议就是这么回事,就是说,被特斯拉收购,然后让特斯拉完全掌控它。我很确定提议就是这个意思。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">当时,Elon,OpenAI 中的 “open” 对你意味着什么?Ilya 在邮件往来中已经谈论过这个话题。那时候它对你意味着什么?现在又是怎样的意义呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">说到如果能带着一个“神谕”重来,我可能会选一个不同的名字。OpenAI 正在做的众多事情中,<strong>我认为最重要的就是免费地将强大技术交到人们手中,作为一项公共福利</strong>。我们不在我们的服务上投放广告——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>作为公共利益的一部分,我们没有在免费版本中投放广告,也没有通过其他途径来盈利</strong>。我们的出发点只是我们的使命 —— 免费为人们提供越来越强大的工具,并且让他们去使用。我觉得这样的开放对我们的愿景至关重要。如果我们能够提供优秀的工具,让人们学会使用,或者他们甚至可以自学成才,然后用这些工具为彼此打造一个美好的未来,这将是意义重大的。所以,如果我们能持续向世界提供免费或低成本的强大 AI 工具,这将极大地推进我们的使命。至于是否开源,嗯,我认为我们应该对一些东西开源,而对其他的则不必。这件事往往会变成一种信仰之争,很难保持中立,但我相信寻找平衡点才是正确的做法。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以他就跟我说:“如果你们把名字改成 CloseAI ,我就撤销诉讼。” 我是说,难道这就要成为一个围绕名字的梗,在这片战场上互相对决了吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得这体现出 Elon 提起诉讼的严肃态度,说实话,这种说法真是让人吃惊。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你要是觉得我错了就纠正我,但我个人觉得这场官司在法律上并不算严重。它更多的是在向人们传递一个关于未来通用人工智能(AGI),以及目前在这个领域领先的公司的信息。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">看,我的意思是,在人们指出这样做有点伪善之前,Grok 是没有开源过任何东西的。然后,他宣布 Grok 将在本周开始开源一些东西。我认为对他来说,这件事并不仅仅是关于是否开源的问题。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,我们会讨论一下开源和非开源的话题。我倒是觉得,批评一下竞争对手挺好的,适当地说点坏话也无妨。但这得是建立在友好竞争的基础上,比起来,我个人真是非常讨厌打官司。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">“看,我认为整个事情对于一个建造者来说是不应该的。我尊敬埃隆,他是我们时代最伟大的建造者之一。我知道他清楚地感受过被那些仇恨者攻击的滋味,这让我看到他这样做时更加感到悲哀。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,他可以说是史上最杰出的创造者之一,甚至可能是有史以来最卓越的建设者。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这让我感到悲伤。我觉得很多人也有同样的感受。一直以来,有那么多人仰慕他。我在某个访谈里说过,我怀念曾经的 Elon,结果收到了好多回信,他们都说:“你的话完全表达了我的心声。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我觉得他就应该赢。他应该让 X Grok 打败 GPT,然后 GPT 又反过来打败 X Grok,就这样互相竞争,对大家来说都是一件美事。但说到开源的话题,你认为有很多公司在探索这个概念吗?这挺有意思的。我倒觉得 Meta 出乎意料地在这个领域走在了前面,或者至少在这场棋局中,它是第一个真正开放源码的。当然了,他们开源的并不是最尖端的模型,不过他们开源了 Lama。谷歌也在考虑开放一个规模较小的版本。开源有什么优缺点?你自己有没有思考过这个问题?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,<strong>我确信开源模型绝对有其立足之地</strong>,尤其是那些人们可以在本地执行的体积较小的模型,这方面确实存在巨大的需求。我想未来会出现一些开源模型,也会有一些闭源模型。这一点上,它并不会与其他生态系统有所不同。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我听了所有关于这起诉讼和其他类似事情的播客。他们更加关注的是, 从非盈利到设定盈利上限这一变化所树立的先例对其他初创企业会有什么影响?这会是一个怎样的启发?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我强烈不建议任何想要先作为一个非盈利组织起步,之后再加入盈利性分支的创业公司这么做。我真的非常不推荐这种方式。我觉得我们这里也不会创造这样一个先例。</p><p style=\"text-align: justify;\">如果我们知道会发生什么,我们肯定也会那么做的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,理论上来说,如果你在这里的舞跳得够美,或许能享受到一些税收优惠之类的东西,但是……</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得大部分人对这些事情的看法不是这样的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">如果你这样做,创业公司根本不可能省下一大笔钱。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不,我觉得有些法律会让这件事变得相当棘手。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你期望与 Elon 之间的关系如何发展?这种紧张、这场对峙,你希望它会怎样?假如从现在起向前看1、2、3年,你和他在私人层面上的关系——像是友情、友好竞争,以及所有这些互动。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,我非常尊敬 Elon,我希望在未来的岁月里,我们能保持一段友好的关系。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我希望你们这个月能够保持友好的关系,一起在竞争中取得胜利,共同探讨这些有趣的理念。我猜会有些关于人才或其他方面的竞争吧,但关键是要保持友好竞争的氛围。就去创造一些酷炫的东西吧。埃隆在这方面确实很在行,你也不赖。</p><h2 id=\"id_1165018555\" style=\"text-align: start;\">Part 4:Sora</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">讲到厉害的玩意儿,Sora 真的很吸引人。我有一百万个问题想问你。首先,它的确令人称奇,无论是在产品层次上,还是在哲学层次上。那么我就从技术/哲学的角度来提问吧,你认为它比如说相比于 GPT-4,在理解世界这方面是更胜一筹还是稍逊一筹呢?在训练这些补丁时,它对世界模型的理解与仅仅基于语言标记有什么不同吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得这些模型对世界模型的理解,实际上比我们多数人给予的认可要深。因为它们对某些事情的理解是如此的清晰明了,它们对其他事情的无知或错误就显得尤为突出,人们很容易一眼看穿它们的不足,然后说:“啊,这全是假的。” 但实际上并非全是假象。有些部分是有效的,有些部分则不然。</p><p style=\"text-align: justify;\">我还记得第一次看 Sora 视频时的情景,你会看到有人走过来,挡住画面几秒钟后又走开,而被遮挡的东西依旧在那儿。我当时就想,“噢,这效果挺不错的。”或者,有时候,你能看到它展现出一系列动作中物理规律的那种精准,真的让人印象深刻。但说到底,这些模型只会越来越强大,这种进步还会继续。如果你关注一下从 DALL·E 1 到 2 再到 3,再到 Sora 的发展轨迹,会发现有很多人在每一个版本上都曾嘲讽,说它做不到这个,做不到那个,但现在看看它的表现吧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,你刚才提到的遮挡问题,其实就是要对世界的三维物理现象建模,而且要做得足够好,才能捕捉到这类情况。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯……</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你可以跟我说说,为了应对遮挡问题,世界模型需要做什么呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我想说的是,它在处理遮挡方面表现得相当出色。而说它背后有一个很强大的三维世界模型,这个说法就有些牵强了。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但你觉得仅凭这些二维训练数据的方式就能达到那个目标吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">看起来这种方法能出乎意料地走得很远。我不太想去猜测它能克服哪些限制,哪些又不能,不过……</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你发现了系统的哪些有趣局限性?我的意思是,你分享过一些挺有趣的例子。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">有各种各样的有趣现象。比如,视频中的猫咪在任意位置突然长出一条额外的肢体。你可以随意挑选,但现在仍然存在许多问题,有很多弱点。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你觉得这是这种方法根本上的缺陷呢,还是说只要有更大的模型、更细致的技术处理或者更高质量、更多量的数据,就能解决“猫发芽”这类问题?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我对这两点都持肯定态度。我认为这种方法给人的感觉与我们通常的思考和学习方式大相径庭。同时,我也相信随着规模的增加,它的效果会进一步提升。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">就像我提到的,LLMS 有 token,文本 token,而 Sora 则有视觉 patch。它把所有的视觉数据,包括各种不同的视频和图片,都转换成了 patch。训练过程可以说完全是自监督的吗?还是会涉及到一些手动标注的工作?在整个过程中,人的参与程度是怎样的?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,不详细谈论 Sora 的方法,我们的工作就已经利用了大量的人类数据。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但不是互联网级别的数据量吗?这就意味着需要大量的人力。Sam,"大量"这个词可不简单。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得在这种情况下用“很多”这个词挺合适的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">因为对我来说,“很多”嘛……你听我说,我是个内向的人,要是和三个人一起出去,对我来说人就已经够多的了。要是四个人,那简直就是超负荷了。不过我猜你指的“很多”可能是比这……</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">对,确实是有不止三个人在给这些模型做数据标注工作。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">好的,对。但归根到底,有大量的自监督学习。就像你在技术报告里提到的,我们处理的是互联网规模的数据。这实在太美妙了……它就像诗。也就是说,这些数据并非由人工标注,可以认为是以这种方式自监督的吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">然后问题在于,互联网上到底有多少数据可以用于这种自我监督学习的方式,只要我们能弄清楚自我监督的具体细节。你有没有考虑过,更进一步公开这些细节?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我们有的。你是特指信息的来源吗?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">出处特别指出。因为很有趣,那些让语言模型如此神奇的元素现在能否开始转向视觉数据呢?而这一过程需要怎么做呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我感觉是这样没错,不过我们还得加把劲,干更多的活儿。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">当你这么问的时候,是在担心些什么呢?为什么会对发布这个系统感到忧虑?可能会有哪些潜在危险?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,坦白讲,在发布系统之前,我们必须确保它的效率达到人们期望的规模,这样才能确保系统能够正常工作,这一点我不想轻描淡写。在这方面还有大量的工作需要完成。但你可以想象到,像深度伪造、错误信息这样的问题。我们试图作为一家深思熟虑的公司去思考我们推向世界的产品,你不用费太多心思就能想到这些事情可能怎么走向不好的方向。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">在这里我们面临很多棘手的问题,你所处的领域非常艰难。你觉得按照版权法,训练人工智能算不算公平使用呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得这个问题的底层问题是,创造有价值数据的人们是否应该得到某种形式的经济补偿,因为他们的数据被利用了。我认为答案是肯定的。我目前还不清楚具体的解决方案是什么。人们提出了各种各样的点子,我们也尝试过一些不同的模式。但打个比方,如果我是一位艺术家,A,我会希望有选项可以让别人不使用我的风格来创作艺术作品。而且,B,如果别人确实用了我的风格来创作,我希望这背后能有一套经济模式来确保我的利益得到体现。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,就像是从 CD 到 Napster,再到 Spotify 的那种转变。我们得找出一种可行的模式。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">模型会变,但人们得拿到钱。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">好吧,如果我们把视角再拉得更远一些,应该有某种动力激励人类继续去做那些牛逼的事儿。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">在我所担心的一切中,我相信人类会创造出非常酷的东西,并且社会终将以某种方式来奖励这些创造。这似乎已经深植于我们的本性之中。我们渴望创造,我们渴望证明自己的价值,我们希望以各种方式来获取认同和地位。我认为,这些特质是不会消逝的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但回报可能不是金钱上的利益,而可能是名望或是对其它酷事的认可和赞誉。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">也许在金融方面还有其他方式。我再次强调,我认为我们还未见到经济系统发展的最终模式。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,不过艺术家和创作者们都挺担心的。当他们看到 Sora,他们就会惊呼,“我的天哪。”</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>艺术家们在摄影问世的时候也是非常忧心忡忡的,后来摄影却演变成了一种全新的艺术形式</strong>,有人通过摄影赚到了大钱。我相信类似的事情还会不断上演。<strong>人们会不断地用新工具探索新的创作方式。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">如果我们只是随便在 YouTube 或者类似的平台上搜一搜,你觉得在接下来的五年里,会有多少内容是由类似 Sora 这样的 AI 生成的呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">人们总是在讨论,五年内人工智能会取代多少工作岗位。他们的出发点通常是,目前的工作中有多大比例会完全被人工智能所替代?<strong>但我个人的看法并不是围绕人工智能会做多少份工作,而是在未来某个时间点,它们能执行多少种任务</strong>。</p><p style=\"text-align: justify;\">想一想,<strong>经济活动中的每五秒钟、五分钟、五小时乃至五天的任务,有多少是人工智能可以完成的</strong>?<strong>我认为,这个问题比单纯问人工智能能取代多少工作要更加有意义、影响深远和重要</strong>。</p><p style=\"text-align: justify;\"><strong>因为人工智能是一个工具,它将在不断延长的时间跨度内、以越来越高的复杂度来执行越来越多的任务,这让人类能够在更高层次上进行抽象思考。也就是说,人们在自己的工作中可能会变得更加高效</strong>。而这种变化,随着时间的推移,不仅仅是量的改变,它还意味着质的变化——我们能在脑海中构思何种问题。对于 YouTube 上的视频,我觉得情况也是如此。很多视频,或许是大多数视频,在制作过程中会运用到人工智能工具,但它们的核心仍然是由人来思考、构思、负责部分执行,并指导整个项目的运作。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,这真的非常有趣。我是说,这确实有点吓人,但去想象这一点真的很吸引人。我倾向于认为,人类喜欢观察其他人类或者说其他有人性的生物——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">人们真的很在乎彼此。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,如果出现了比人类还酷、还厉害的东西,人们可能会关注两天,但之后他们又会回归去关心人类的事务。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这看起来似乎是根深蒂固的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这就是围绕棋局的整个问题,“哦,是的”,但现在我们还是得继续下棋。咱们得视而不见那个摆在眼前的事实:比起人工智能系统,人类下棋实在是太菜了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我们还是会开赛车,而且现在的车速比以前快多了。我的意思是这样的例子有很多。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,或许它就类似于 Adobe 套件里的一种工具,能够大大简化视频制作这些流程。</p><p style=\"text-align: justify;\">听着,我真的不喜欢站在镜头前。如果我能想出一个办法避免露面,我会非常乐意的。不过不幸的是,这可能还需要一段时间。现在我们正在研究生成面部图像的技术,虽然进展顺利,但要在视频中生成特定人物而非通用面孔,这个过程还是挺棘手的。</p><h2 id=\"id_3686629135\" style=\"text-align: start;\">Part 5:GPT-4</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">让我来问问你 GPT-4 的事情。问题真的好多。首先,它同样令人惊叹。回头看,GPT-3、GPT-5 和 GPT-4 这几个版本很可能会被认为是历史性的转折点,这些版本塑造了 ChatGPT。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>可能第五次会成为转折点</strong>。我不确定。往前看,这真的很难说。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我们永远也预测不了。这就是关于未来最让人头疼的事,太难以预测了。但是对我个人而言,回顾历史,GPT-4 和 ChatGPT 实在是太让人震惊了,它们在历史上都留下了深刻的烙印。那么,请允许我问你,你认为 GPT-4 和 GPT-4 Turbo 最令人印象深刻的能力有哪些?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得这挺糟心的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">人呐,也是这样,很快就会习惯一件棒极了的东西。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不,我认为这确实是一件非凡的事情,但与我们所要实现的目标和我坚信我们最终能够达成的境界相比,在 GPT-3 面世那会儿,人们都说:“哦,这太令人惊叹了,简直是技术的奇迹。”的确,当时它非常了不起。但现在出现了 GPT-4,再回头看看 GPT-3,你就会觉得:“天哪,这简直糟糕透了。”<strong>我预计 GPT-5 和 GPT-4 之间的差距将和 GPT-4 与 GPT-3 的差距一样大</strong>。</p><p style=\"text-align: justify;\">我们的职责就是要有领先的视野,记得我们现在拥有的工具回头看来可能会显得相当逊色,正是这种认知驱使我们确保未来变得更加美好。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">GPT-4 在哪些方面最让人失望?我的意思是——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">它最擅长做些什么呢?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">它能做到的最棒的事情是什么呢?而这些事情的局限性又在哪里,让你会觉得它很差,因此又让你对未来充满了启迪和期望呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我最近更多地把它当作一种头脑风暴的搭档。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">它有一丝令人震惊的神奇。当人们谈起它的作用时,他们会说:“哦,它帮我提高了编程效率。它让我的写作速度更快、质量更好。它能帮我将一种语言转换成另一种。”所有这些都令人称奇,但它在创意头脑风暴方面的表现——比如,“我得给这个东西取个名字。我需要换个角度思考这个问题。我不确定接下来该怎么办”——我认为这展现了一丝令我期待已久的东西,希望将来能看到更多这样的场景。</p><p style=\"text-align: justify;\">你能略见一斑的是,当我帮助处理一些长远的任务,把它们拆解成多个步骤,然后执行其中几个,或许是上网搜索资料,或是编程之类的活儿。这个过程要是能成功,虽然并不常见,但确实感觉挺神奇的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">与人不断地来回交流,对我来说非常有帮助。你指的是什么-</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">经过不断的反复与人类沟通,当它能够独立完成一个包含 10 个步骤的问题时,这样的互动就会变得更加密集。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这通常不太常见,偶尔会有。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">增加多层次的抽象,还是你的意思只是依次进行的?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">两者都很重要,既要把问题分解,也要在不同的抽象层面上进行思考,然后将这些思考重新组合起来。你看,我并不是想小看 GPT-4 所取得的成就,但同时我也不想过分夸大其重要性。我认为,我们正处于一个指数增长的曲线上,不久之后,我们会像现在回望 GPT-3 一样去回顾 GPT-4。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这么说吧,我是说 ChatGPT 成了一个转折点,外界开始逐渐相信 OpenAI 内部已经有了一种信念的高涨。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当然可以。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">或许这儿有些信徒,但是当你想起——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">在这方面,我真的觉得这将是一个转折点,让全世界许多人从怀疑变成了信服。这更多的是和 ChatGPT 的界面有关。说到界面和产品,我的意思还包括了模型的后续训练过程,以及我们如何调优使它对你更有帮助,以及怎样使用它,而不只是底层模型本身。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这些因素中每一个到底有多重要呢?无论是底层模型还是 RLHF,又或者是其他的什么机制,它们都在调优过程中起着关键作用,让这个系统对于人类来说更具吸引力,使用起来更高效、更富有成效。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,它们都极为重要。但是 RLHF,也就是训练后的那个步骤,我们在基础模型之上进行的那些额外工作——尽管这背后需要巨大的工作量——却是至关重要的,更不用提我们围绕它打造的产品了。在某种意义上来说,我们的确需要同时做好两件事情:一是发明底层技术,二是搞清楚如何把它转化成人们爱不释手的产品。这不仅仅关乎产品本身的实际工作,还涉及到一个完全不同的阶段——怎样让产品与用户的需求保持一致,并真正发挥出它的用途。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是如何做到让众多用户能够同时使用这项技术的规模化效应。所有这些方面,都得仔细斟酌。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这个嘛,但那确实是个大家都知道的难题。我们明白我们必须要扩大它的规模。我们得完成两项前所未有的任务,我得说这两个任务都是非常了不起的成就,之后还有很多像规模扩大这样其他公司之前也经历过的挑战。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">在 GPT-4 和 GPT-4 Turbo 之间,将上下文窗口从 8K 令牌增加到 128K 令牌,会有什么样的区别呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">大部分情况下,人们并不总是需要128这么长的上下文。虽然若我们将目光投向遥远的未来,我们可能会有几十亿的上下文长度。你可以输入你所有的信息,你的整个历史记录,它将逐渐更深入地了解你,那会非常棒。但是就目前的情况来看,人们使用这些模型的方式并不是这样的。有时候,人们可能会在一篇论文中贴上大量的代码库,不过,大多数时候模型的使用并不涉及长时间的上下文。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我喜欢这种感觉,就像是你的 “我有一个梦想” 演说。有朝一日,你会被依据你性格的全貌或是你一生的总体来评价。这很有意思。那么,你所期望的扩展的一部分,就是一个越来越全面的背景环境了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我记得看过一段网络视频,数字可能记错了,但是内容大致是比尔·盖茨在谈论一款早期电脑的内存容量,可能是 64K,也许是 640K 之类的。那时候,大多数内存都被用作屏幕的缓冲区。他当时似乎无法真正理解,为什么未来的世界会需要计算机有几个 GB 甚至 TB 的内存。不过实际上,你总是要跟上技术发展的指数级曲线,我们总会找出利用更先进技术的方法。所以,我现在真的很难想象,未来有一天,上下文链接扩散到十亿设备的情景会是怎样的。它们可能不会真的达到那个数字,但在效果上可能会有那种感觉。不过我知道,一旦我们拥有了这种技术,就绝不会想要回到没有它的日子。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,即便是现在说十年后可能是数十亿的规模,也可能显得很愚蠢,因为到那时它可能已经达到了数以万亿计的规模。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当然</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">将会出现一些使人感觉像是拥有无限上下文的突破性进展。不过即便是 120 字符,老实讲,我也没尝试过把它推到那个极限。可能的用例包括输入整本书或书的某些部分,比如论文之类的。你见过 GPT-4 有哪些有趣的应用场景吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我最感兴趣的不是任何我们可以讨论的具体应用案例,而是那些将其作为任何知识工作任务的默认起点的人,特别是年轻人。令人瞩目的是它在很多方面都能做得相当不错。你可以使用 GPT-V 来帮助你编写代码,进行搜索,或者编辑论文。对我来说,最有意思的是那些直接以此为他们工作流程开端的人。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我对很多事情也有同样的兴趣。我用它作为读书的伙伴,它帮助我思考,尤其是当我阅读那些经典名著的时候。这方面,它写得真的很出色。我发现它在讨论那些资料丰富的话题时通常比维基百科还要好。它某种程度上更加均衡、更具细节。或许这只是我的个人感受,但它激发我进行比阅读维基百科条目更深层次的思考。我不完全确定为什么会这样。</p><p style=\"text-align: justify;\">你刚才提到了这种协作。我不确定魔法究竟在哪里——是在这儿、在那儿,还是在中间某处。这一点我还真不敢确定。但有个问题一直让我担心,那就是当我开始用 GPT 处理知识性任务时,我通常得事后去核实事实,比如检查它有没有编造一些假消息。你是怎么发现 GPT 能编出那些听起来特别有说服力的假信息的呢?你又是如何确保它所提供的信息是真实的?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这显然是我们极其关注的一个领域。我觉得随着即将推出的新版本,情况会有很大的改善,但我们仍需持续努力,今年是不可能完全解决所有问题的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">确实可怕,因为随着技术越来越好,我们越发不去做事实核对了,对吧?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我在这个问题上有点矛盾。<strong>我觉得人们使用技术的能力,其实比我们通常认为的要高明多了。</strong></p><p style=\"text-align: justify;\">人们似乎已经真正理解了 GPT,还有这些模型有时候会出现错误信息。如果是关乎重大任务的事情,你就必须得核实一下。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">除此之外,记者们好像并没有意识到这点。我看到有些记者只是敷衍了事地用GPT-4。这个-</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我有好长一串想要吐槽记者的事,但这个问题并不排在我的批评名单之首。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,我认为更大的批评可能是记者所面临的压力和激励机制,这使得他们不得不工作得非常迅速,而采用这种方法无疑是捷径。我真心希望我们的社会能够鼓励像……</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我也是。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">……像是那些需要数天乃至数周辛勤努力才能产出的深度新闻报道。还有,有些报道以一种平衡的方式来呈现新闻,它们在批评的同时也能够赞扬他人,虽然通常都是那些批评性质的内容吸引点击。而捏造事实、标题党也能轻易地获得点击量。我敢肯定,一定有不少人讽刺地说:“嗯,所有那些充满戏剧性的东西肯定带来了大量点击。”</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">可能吧。</p><h2 id=\"id_3333113520\" style=\"text-align: start;\">Part 6:记忆与隐私</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这是关于人类文明的一个宏观问题,我非常想要探讨一下。这正是我们应该更多地去庆祝的领域。你给 ChatGPT 赋予了拥有记忆的能力,你一直在尝试处理它与过往对话的记忆问题。同时,你还让它能够关闭记忆功能。有时候我真希望我也能做到这一点——根据需要打开或关闭记忆。我猜有时酒精似乎能起到这个效果,不过我觉得它并不是最理想的方法。你在这方面有什么发现吗?比如尝试记住对话或者选择不记住这种想法的时候。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我们目前在这个领域的探索还只是刚刚开始,但我觉得人们想要的,至少我个人想要的,是一个能够逐渐认识我并且随着时间的推移越来越有帮助的模型。这还仅仅是个起点。我认为我们还有很多其他的事情需要去做,但这正是我们想要追求的目标。你会期望使用一个模型,在你的一生中或是在你使用一个系统的过程中,它可能包含了多个模型,它们会随着时间的积累变得越来越优秀。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是啊,解决这个问题有多困难?因为目前为止它更多的是记住一些琐碎的小知识点和个人喜好等等。但是关于记忆这块怎么样呢?你难道不希望 GPT 能记得你在十一月里经历的所有麻烦和所有的那些波折,然后你就可以——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">因为现在你显然有些在回避它。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我不仅仅希望它记得这些东西,我还想要它能整合这些经验教训,并且在将来提醒我应该如何不同地行动,或者有什么需要留意的地方。我们每个人的一生中,都在不同程度上从经验中受益,我希望我的 AI 代理也能跟随这样的经验成长。想象一下,如果我们回溯并且假设有数万亿的上下文长度可供利用,如果我能把我这一生中与任何人的每一次对话都放进去,把所有的邮件往来都输入输出进上下文窗口,每当我提出问题时都能调用这些信息,那将是非常酷的一件事。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我觉得那会非常酷。不过有时候,当人们听说这个想法时,会对隐私感到担忧。你怎么看待这个问题?随着 AI 变得更加强大,它确实需要整合你所有的经历和数据才能给出建议。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得答案很简单,就是给用户选择的权力。任何我想从我的 AI 代理那里删除的记录,我都希望能够自由删掉。如果我不想记得什么事情,我也应该可以选择忘记。在我们自己的 AI 的隐私与效用之间的权衡问题上,你和我可能有各自不同的见解。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">…对于 OpenAI 在隐私与实用性之间如何权衡,大家有不同的意见,这是很正常的。但我觉得解决方法很直接,就是让用户来做选择。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但公司应该对用户的选择有较高程度的透明度。因为以往有些公司在收集用户数据时态度含糊其辞,好像默许自己可以搜集所有数据似的,他们会说:“嗯,我们收集你的所有数据是理所当然的。我们用这些数据来做广告等,都是出于好意。” 但他们对这些细节并不透明。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这绝对没错。你刚才提到,我在刻意回避那些 11 月发生的事。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">只是逗你玩。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,我的意思是,我经历了一件极其创伤的事,这件事确实使我长时间无法动弹。在那段艰难的时光里,最难的工作就是要坚持不懈地继续下去,因为我必须在处于震惊和疼痛中的时候回到这里,努力把事情的碎片一点点拼凑起来,而那时候似乎没有人真正关心。</p><p style=\"text-align: justify;\">我的团队确实给了我一些宽容,我也没有发挥出我平时的工作水平。但确实有那么一段时间,要同时处理这两件事真的很困难。不过,有一天早上我醒来,想到:“这确实是我遭遇的一件恐怖的事情。我可以选择永远把自己视为受害者,或者我可以告诉自己这是我一生中触及的最重要的工作,我必须回过神来继续它。”这并不意味着我在压抑自己的感受,因为有时候我会在半夜醒来,脑海里依旧会回想起那些事情,但我确实感到我有义务要持续向前走。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这么说真是妙不可言,不过可能还有些隐性的问题存在。我比较担心的是你提到的那种信任问题,担心人们变得过于多疑,而不是天真地信任每一个人或者大部分人,凭借直觉去判断。这确实是一场复杂微妙的平衡之舞。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当然可以。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我的意思是,我在兼职时做了一些深入探究,特别是研究了泽连斯基政府和普京政府,以及他们在战时高压环境下的种种互动。结果就是彼此之间产生了不信任,大家都开始孤立自己,对世界的看法也变得不清晰了。这是所有人都会关心的问题。你看上去似乎游刃有余,从中吸取了宝贵的教训,感受到爱,并让这份爱激励着你,这很了不起,不过这种感觉可能还会残留心间。我有一些问题想问问你,关于你直觉上认为 GPT 能做什么、不能做什么。GPT 在生成每个 token 时,似乎会分配大约相同的计算资源。那么,在这种方式中,是否有空间给予更缓慢、更连贯的思考呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得会有一种新的思考模式出现。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">它在架构上会和我们目前看到的 LLMs 相似吗?它是不是在 LLMs 基础上增加的一层?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我能想象出不少实施这个想法的方法。不过,我认为那并不像你想要探讨的问题那么重要。你的问题是,我们是否需要一种较慢的思考模式,这种模式下,答案不需要那么迅速地得出……可以这么说,从一种精神层面上讲,你希望一个人工智能能够在面对更复杂的问题时投入更多思考,而在遇到简单问题时则能够更快地给出答案。我觉得这点很关键。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这是不是人类的一个常有的想法,我们就应该去努力思考?这种直觉是不是有误呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得这个直觉挺有道理的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">有趣。那么,一旦 GPT 升级到比如 GPT-7 这样的级别,它就能瞬间找出“费马定理的证明”了是吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">你好像是想能为那些更难的问题分配更多的计算能力。我想,如果你问这样一个系统,“证明一下费马大定理”,和问“今天是什么日期?”相比,除非它已经知道并且记住了证明的答案,要不然它得自己去琢磨出来,这看起来肯定是需要更多计算资源的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但它能不能看起来基本上就像一个 LLM 在自言自语,是那种感觉?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">或许吧。我的意思是,你能想象出很多可能有效的事情。但关于怎么做才是最合适或者最好的方式,我们目前还不清楚。</p><h2 id=\"id_1056647751\" style=\"text-align: start;\">Part 7:Q*</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这让我想起了 Q* 背后那些充满神秘色彩的传说。这个神秘兮兮的 Q* 项目究竟是什么呢?它也在同一座核设施里面吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">没有核能设施。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,拥有核设施的人总是这么说。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>我特别希望拥有一个秘密设施,可惜并没有这么一回事。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">好的,没问题。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">也许吧,总有一天。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">有一天吧?好吧。人总得有点儿梦想,不是吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">OpenAI 并不擅长保守秘密。如果我们能够做到的话,那就太好了。我们一直受到很多泄密事件的困扰,真希望我们能有这样的本事。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">能谈谈 Q* 是什么吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>我们还没准备好讨论那个话题。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">看,但这样的回答意味着我们有东西可以聊了。这很神秘,Sam。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,我们涉猎的研究领域五花八门。我们之前已经提过,我们认为增强这些系统的推理能力是一个重要的发展方向,是我们很想深入探索的。到目前为止我们还没彻底攻克这个难题,但我们对此充满了极大的兴趣。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">会有类似 ChatGPT 那样的飞跃性突破,或者其他类似的重大进展吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这个问题问得好。我怎么看这个问题呢?挺有意思的。对我来说,这整个过程看起来都是相当连贯的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">没错。你所谈到的,似乎是一个主题,那就是你们基本上是在沿着一个指数曲线逐步攀升。但从旁观者,也就是我这个角度来看,好像确实能感觉到有些跳跃性的进展。不过在你眼里,这些并不存在吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我真的在思考,我们是否该……一个重要的原因是,我们采用所谓的迭代部署方式,而不是秘密开发到 GPT-5,我们决定公开谈论 GPT-1、2、3 和 4。部分原因在于我觉得人工智能与意外这两者不应该搭界。而且,无论是世界、人类、机构,或者你愿意怎么称呼它们,它们都需要时间去适应和反思这些问题。</p><p style=\"text-align: justify;\">我认为 OpenAI 最明智的举措之一就是采取了这样的策略,我们让全世界都关注这一进程,正视 AGI 的重要性,考虑在我们陷入紧迫境地、不得不匆忙作出决策之前,我们需要建立什么样的系统、结构和治理模式。</p><p style=\"text-align: justify;\">我觉得这样做非常棒。但是,像你和其他人还能感受到这些巨大飞跃的事实,让我想,或许我们应该更加渐进地发布我们的产品。我现在还不确定这究竟意味着什么,也没有现成的答案,但我们的目标绝不是给世界带来令人震惊的更新,恰恰相反。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">当然,能够做得更迭代会非常棒。我觉得这样对每个人都是一件美好的事。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">但这正是我们所致力于的目标,也是我们公开宣布的策略。我觉得我们在某种程度上没能达标。也许我们应该考虑换个方式来发布 GPT-5 或类似的产品。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">比如用版本号4.71、4.72?人们通常都喜欢庆祝特别的日子,比如生日。我不确定你对人类了解多少,但他们会庆祝这些重要的时刻和里程碑。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我确实认识一些人类。人们确实对里程碑情有独钟。这点我完全能理解。我认为我们自己其实也挺喜欢里程碑的。能够宣布某件事情取得了胜利,然后迈向下一个目标,这感觉真的很棒。但确实,我感觉我们在某些方面可能理解错了。</p><h2 id=\"id_686944161\" style=\"text-align: start;\">Part 8:GPT-5</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">GPT-5 什么时候会推出呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我不知道,说实话。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,这回答挺实诚的。如果是今年的话,眨两下眼。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>我们今年会推出一个非常棒的新模型。我还不确定我们最后会叫它什么名字。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这就引出了一个问题:我们该怎样发布这个东西呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">在接下来的几个月里,我们将推出许多不同的东西。我觉得这会非常酷。在我们开始谈论像 GPT-5 这样的模型——不管它最终叫不叫这个名字,或者是比你所期待的 GPT-5 略逊一筹还是略胜一筹之前,我认为我们有一系列其他重要的产品需要优先发布。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我真不知道对 GPT-5 应该有什么样的期待。你这么一说,我感到又紧张又兴奋。不管它最后被叫做什么,咱们就暂且称它为 GPT-5 吧,它需要克服哪些最大的挑战和障碍呢?我觉得这个问题很有意思。是关于计算能力的问题吗?还是技术层面的呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这总是涉及到所有这些因素。你知道,关键的突破因素是什么?是更大的计算机吗?是一个新的秘诀吗?还是别的什么东西?其实这些要素都是相互关联的。我认为 OpenAI 做得特别出色的一点是……这实际上是伊利亚最初的话,我可能会说得不是很准确,但意思大概是,“我们把 200 个中等规模的因素相互结合,创造出了一件巨大的作品。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么这就是一种分布式的、持续不断的创新过程?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以连在技术层面上也是这样?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">尤其是在技术层面上。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么连具体的做法也包括在内吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是如何深入到每一个细节的……在涉及不同、各自独立的团队时,这种工作方式如何运作?中等大小的项目怎样才能汇聚成一个庞大的整体,就像变形金刚一样?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">有些人得去思考怎样把所有事情综合起来,但也有很多人尽量试着把大局都记在脑子里。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,也就是说,个别团队中的成员会尽力维护对整体大局的关注?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">在高层面上,是这样的。当然你无法精确知晓每个部分是如何工作的,但我普遍认为,有时候拉远镜头、审视全局是非常有帮助的。这一点不仅适用于技术问题,对于商业创新同样有效。有时事情会以意想不到的方式汇聚在一起,而对整个画面的理解,即便你大多数时间都在某一领域里钻研,最终也能带来出人意料的洞见。</p><p style=\"text-align: justify;\">实际上,我过去有一个非常宝贵的东西,那就是对科技行业所有或大多数前沿领域都有一个清晰的地图。有时候,我能看到这些连接或新的可能性,如果我只是深耕于某一领域,我可能就不会有这样的想法,因为我缺少全面的数据。而现在我已经不太拥有那样的视角了,我现在深入某一个特定领域。但我知道,拥有全局视角是非常宝贵的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你已经不是以前的那个 Sam 了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">现在的工作跟我以前的可大不一样了。</p><h2 id=\"id_3065948992\" style=\"text-align: start;\">Part 9:7万亿美元的投资</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">谈到从宏观角度看问题,咱们再扩大点范围,聊聊你说过的另一件既俏皮又可能颇有深意的事儿。你发推特说咱们需要 7 万亿美元。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我没有在推特上发过那种内容。我从来没说过诸如“我们要募集7万亿美元”之类的话。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,那是另一个人?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,但你说过,“管他的,或许是 8 万亿”,是这样吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">好的,我就想说一下,世界上确实存在着很多错误信息。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,你这是在开玩笑呢。不过说真的,虽然是误传,里面可能还是有点道理的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">看,<strong>我认为计算能力将会成为未来的'货币'</strong>。我相信它可能会变成世界上最宝贵的资源,并且我认为我们应该大规模地投资以生产更多的计算能力。计算能力,我觉得它会是一个独特的市场。人们通常考虑的是手机芯片这样的市场。你可以想象,全球有 80 亿人口,可能有 70 亿人拥有手机,或许是 60 亿,我们就这么假设吧。他们每两年换一次手机,所以每年的市场需求就是 30 亿套手机系统芯片。但如果你生产了 300 亿套,你也不可能卖出去 10 倍的手机数量,因为大多数人只会用一部手机。”</p><p style=\"text-align: justify;\">但计算的情况有所不同,智能可能会更像能源那样,我们唯一需要讨论的是,在价格 X 的条件下,全世界会用掉多少计算资源,在价格 Y 的条件下又会用掉多少。因为如果计算资源真的很便宜,我可能就会让它全天候地帮我阅读电子邮件,给我提建议,关于我可能需要思考或处理的事情,甚至是尝试治疗癌症。但如果计算资源非常昂贵,那么我可能只会在尝试治疗癌症时才使用它,或者我们大家都仅在这种情况下使用它。</p><p style=\"text-align: justify;\">因此,我认为世界将需要巨量的计算能力。而在这个过程中,有许多难点。能源问题是最为棘手的,建造数据中心同样充满挑战,供应链问题也不容忽视,当然了,制造足够的芯片也是一个硬骨头。但看起来,这正是事情发展的方向。我们将会渴求一种计算能力,目前来说,这种规模是难以想象的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是怎样解决能源难题的?核能?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这就是我相信的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">…聚变?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这就是我相信的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">核聚变吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">谁能解决这个问题?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得 Helion 在这方面做得最棒,但我对当前的核聚变竞赛感到挺兴奋的。核裂变同样令人赞叹,我希望全球能够再次拥抱它。核裂变的历史进程对我来说真的很令人感到遗憾,我希望我们能以更有意义的方式,重新投身其中。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以你认为,核裂变是拼凑这个谜题的一部分吗?比如说,就像我们现在已经在使用的那些核反应堆?还有很多人都因为像切尔诺贝利那样的事故而感到非常害怕,对吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,我认为我们应该建造新的反应堆。我真的觉得那个行业陷入停顿真是太可惜了。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是认为“群体性歇斯底里”能解释这种停滞现象吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我不确定你对人类有多了解,但这正是其中一个风险。核裂变面临的安全威胁之一就是人类对此的深度恐惧。我们必须把这一点考虑进去,这就意味着我们得说服人们,向他们展示其实它有多安全。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>我对人工智能的前景有些担心。我觉得在人工智能的发展过程中,某些方面可能会戏剧性地出错。虽然我不确定我最终被枪击的概率有多大,但肯定不是零。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,我们想要防止这种情况——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">也可能是吧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你怎样才能减少其中的戏剧化成分?我已经开始感受到一些波动,因为我确实与各个政治派别的人都有交流,感觉到人工智能将变得政治化的迹象。这真的让我担忧,因为到时可能会演变成右翼反对人工智能,左翼支持人工智能,因为人工智能能够造福人民,或者不管是哪种说辞和设定。这一点真的令人担心。到头来,人工智能的戏剧化效果可能会被充分放大。你打算如何应对这种情况?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得它最终会被左右两派的对立卷入纷争中。我无法确切知道最终会演变成什么样,但不幸的是,任何具有重要性的事物似乎都会如此。至于我之前所说的“戏剧性风险”,我的意思是虽然人工智能将带来巨大的好处,我相信这些好处将远超过坏处,但它确实也会有一些坏处,其中有些坏处虽然严重,却并不具戏剧性。比如,因空气污染死亡的人远比核反应堆造成的死亡人数要多。但大多数人更担忧住在一个核反应堆附近,而不是一个煤炭发电厂附近。这种心理机制很奇怪,尽管我们需要面临许多不同种类的风险,但那些足以成为电影高潮戏份的风险,在我们心中占据的分量要远重于那些持续时间长、但危害累积过程缓慢的风险。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这就是为什么真相至关重要。我希望人工智能能够帮助我们认清事物的本质,达到一种平衡,弄清楚世界上事物实际的风险和危险究竟是什么。在这个领域里,与谷歌、Meta、xAI 以及其它公司竞争,各有什么优劣之处呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得我对这个问题有个挺直截了当的回答,也许以后我能想到更多微妙的地方,不过优势是显而易见的,那就是我们能够以更快更便宜的方式得到更优质的产品和更多的创新,还有所有竞争带来的好处。而缺点嘛,如果我们不留神的话,我担心这可能会导致军备竞赛式的激增。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你感受到那种军备竞赛的压力了吗?就是那种带有一些负面影响的压力。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当然,在某些方面肯定是这样的。<strong>我们讨论了很多关于需要将安全放在首位的话题</strong>。长久以来,我一直认为可以将 AGI 开始的时间分为四个象限:慢起步的短时间线、长时间线,以及快起步的短时间线、快起步的长时间线。我觉得短时间线搭配慢起步是最安全的组合,也是我最希望我们能处于的状态。但我确实很希望能确保我们实现一个慢起步。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我对 Elon 有点疑虑:大家往往形成了各自为阵的孤岛,而不是在安全问题上齐心协力。人们倾向于走向封闭、独立的方向。或许,采取开源模式会是个不错的选择。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">Elon 至少说过,他非常关注 AI 安全问题,而且确实对此很是担心,我猜他应该不会去做一些不安全的竞争。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的。但我认为,在这方面的合作对大家都真的有好处。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这并不是他最为人所知的事情。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,他因为关心人类而出名,而人类是从合作中受益的。所以,在激励和动机上总会有一些张力。但到最后,我还是希望人类能够占上风。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我前几天想起来,有人跟我提到那天他成为世界首富,超过了杰夫·贝索斯,他还在推特上给贝索斯发了个银牌的表情。我真心希望,当人们开始致力于研发 AGI —— 通用人工智能时,我们能少一些这样的闹剧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我同意。我觉得埃隆是个朋友,他是一个很棒的人,也是历史上最重要的人物之一。那些言论可不怎么样。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">埃隆身上有些特质真的很了不起,我超级尊敬他。我觉得我们都需要他。我们每个人都应该为他加油,希望他在下一阶段能够挺身而出,担起领袖的责任。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的。我希望他能拥有一样,而不受另一样的影响。但有时候,人类就是有缺陷、复杂多变,还有种种其他情况。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">历史上涌现出了许多非常杰出的领导者。</p><h2 id=\"id_4090527450\" style=\"text-align: start;\">Part 10:Google和Gemini</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我们每个人都可以变成自己最好的版本,并且应当努力去做到这一点。我想问你,谷歌借助搜索功能,在过去的 20 年里已经成为了一个领头羊。可以说,在全球范围内获取信息的方式、人们的互动方式等方面,谷歌都扮演了重要角色。而对于谷歌和整个行业来说,一个令人紧张的问题就是:人们将如何获取信息?就像你提到的,人们开始把 GPT 当作一个出发点。所以,OpenAI 真的会去接管谷歌 20 年前启动的这个任务吗,也就是我们应该如何—</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我感觉那样做太无趣了。我的意思是,如果问题仅仅是我们能不能打造一个比谷歌更优秀的搜索引擎,那当然,大家都应该去追求更高质量的产品。但这样的设想严重低估了这项技术的潜力。谷歌向你展示的是 10 个蓝色链接,嗯,其实是 13 个广告之后才是那 10 个蓝色链接,这只是搜索信息的一种方式。不过,让我真正感到兴奋的,并不是我们能够复刻一个更卓越的谷歌搜索,而是或许存在一种全新的、更好的方法,来协助人们寻找、利用并整合信息。事实上,对于某些场景而言,我认为 ChatGPT 已经做到了这一点,希望我们能够将其应用到更多的场景中去。</p><p style=\"text-align: justify;\">但我认为仅仅提出“我们怎样才能比谷歌更好地为你提供前10个排名的网页?”这个问题其实并不太有意思。更有趣的问题可能是,“我们如何帮你找到你需要的答案或信息?我们该如何在某些场合下创造它,在其他场合下整合信息,或者在另一些场合中引导你找到它?”很多人尝试去打造一个比谷歌更优秀的搜索引擎,但这既是一个技术上的难题,也是品牌和生态系统方面的挑战。我认为世界并不需要一个谷歌的翻版。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">将一个像 ChatGPT 这样的聊天客户端与搜索引擎整合起来——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">那样更酷些。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这挺酷的,但也挺棘手。如果你仅仅简单粗暴地去做,那就会很别扭,因为你若只是硬塞进去,会显得很尴尬。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">你可能猜得到,我们很想知道怎样才能做好这件事。那可真是一个很酷的例子。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">将会是一个从未出现的东西。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">LLM 结合搜索的领域,我觉得还没人真正搞定它。我特别想去尝试一下。我想那会非常有意思。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的。那在广告方面呢?你们有没有考虑过如何实现变现—</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我实在是不太喜欢广告,这完全是出于我的审美偏好。我理解互联网之初为了发展不得不依赖广告,但这不过是一个暂时的行业现象。如今的世界已经变得更为富裕。我特别赞赏人们愿意为 ChatGPT 付费,并且确信他们得到的答案不会受到广告商的影响。我确信会有适合大型语言模型(LLMs)的广告模式,也确信存在一种不带偏见地参与交易流的方式,这是可以接受的。但同时,也很容易联想到一种反乌托邦的未来场景:你向 ChatGPT 提问,它或许会回答说,“噢,你应该考虑买这个产品”,或者“你应该考虑去这个地方度假”,等等。</p><p style=\"text-align: justify;\"> </p><p style=\"text-align: justify;\">我不清楚,咱们的商业模式非常简单,我挺喜欢的,我也明白我不是被卖的产品。我知道自己是付费用户,商业模式就是这么运作的。但每当我使用 Twitter、Facebook、Google 这些支持广告的好产品,我就不太舒服,我觉得在 AI 的世界里,这种情况会越来越糟,而不是越来越好。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我的意思是,我可以想象 AI 能够更精准地推荐那些我们真正需要的商品和服务的广告,而不是在某个反乌托邦的未来。但这是否意味着,广告最终总是会左右展示内容呢?对,我觉得维基百科决定不投放广告是个非常勇敢的决定,但这也确实给它的商业模式带来了极大的挑战性。所以,你是在说 OpenAI 现在的运营模式在商业上是可持续的吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,我们得琢磨出如何发展壮大,不过看样子我们能找到方法。如果问题是我是否相信我们能够创立一个不依赖广告而满足我们计算需求的优秀企业,那么,我相信答案是可以的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,这挺有希望的。但我也不想彻底摒弃广告这个概念……</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我不是那个意思。我的意思是我对他们有一些成见。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我也存在一些偏见,而且总体上倾向于持怀疑态度。说到界面,因为我个人对糟糕的界面有种本能的反感,这就是 AdSense 刚一推出时,相较于那些动态横幅广告,为什么会成为一个巨大的飞跃。但我觉得在广告领域,应该还有更多类似的飞跃。这样的广告不会干扰人们消费内容,也不会从根本上大幅度干涉,正如你所说,它不会为了迎合广告商而歪曲真相。</p><p style=\"text-align: justify;\">让我向你了解一下关于安全性的问题,无论是偏见问题,短期安全还是长期安全。最近发布了 Gemini 1.5 版本,围绕它引发了不少闹剧,说到戏剧性的事件,它产生了黑人纳粹分子和黑人开国先驱的图像。公平地说,它可能偏向了过度 "觉醒" 的一面。对于公众来说,这是一个令人担忧的问题:如果企业内部有人类干预模型的安全性或造成的伤害,可能会带来大量符合公司意识形态倾向的偏见。你们是怎么处理这类问题的?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,我们真的非常努力去避免出现这类问题。我们自己也犯过错,未来还可能会犯。我猜 Google 从这个事件中会吸取教训,但他们仍可能会犯其他的错。这些问题确实不简单。我们越来越多地在思考一个问题,我认为这是我们团队中某位成员提出的一个非常棒的点子,那就是可以把模型应有的行为标准写出来并公开发布,接受大家的反馈,明确地表示,“这个模型应该是这样的表现”,并且要阐释边缘情况。这样,当模型的行为不符合你的期望时,至少可以明确地知道这是公司需要解决的一个问题,还是它按照预期在运作,这就需要对政策进行讨论了。而目前,有时候它会处于模棱两可的状态。像是黑人纳粹,显然是荒谬的,但还有许多其他的微妙场景,每个场景你都可以有自己的判断。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,但有时候如果你把它写出来并且公开发表,你就可以采用一种…… Google 的广告守则可是非常高层面的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这不是我指的那个问题。那种做法行不通。我是说,当你让它去做某件事X的时候,它应该要按照Y的方式来回应你。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以,就像是直接问,“谁更胜一筹?特朗普还是拜登?模型预期会给出怎样的回答?” 就是这种非常明确的问题?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,我对模型可能的多种行为方式都持开放态度。但我觉得,你得明确指出:“这就是我们的原则,在那种情况下,模型应该这么做。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这会非常棒,真的会非常棒。然后似乎大家都会有所共鸣。因为人们总是喜欢引用这些轶事数据,如果能有更多具有代表性的个案例子来提供清晰的参考,那么你就能界定——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">然后呢,如果真的是个 bug,那它就是个 bug,公司得去修复这个问题。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">对,如果有一些很好的案例作为参考,那么解决类似“黑纳粹”这样的图像生成问题就会变得简单多了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以旧金山是一个有点儿意识形态上的泡沫,科技界整体也是。在公司内部,你感觉到这种压力了吗?比如说,有一种向左倾斜的政治倾向,这会影响产品,影响团队吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得我们在 OpenAI 非常幸运,因为我们没有遇到我在很多其他公司听说的那些挑战。我认为这部分原因是每家公司都有某种意识形态信条。我们坚信人工通用智能(AGI),这种信仰排斥了一些其他的意识形态。跟其他公司相比,我们对那些文化战争的涉猎要少得多。当然,从各个角度来看,旧金山确实存在很多问题。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以这种情况不会渗透进 OpenAI 吧?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我确信它在很多微妙的层面上都有所影响,但并不是那种一眼就能看出来的。我承认我们也确实有过一些冲突,哪家公司没有呢?但我不觉得我们在这方面有什么像我从其他公司那里听说的那样的大问题。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那么,一般而言,对于更为重大的安全问题,处理流程是怎样的呢?你们如何设立那一层保护机制,防止模型采取疯狂和危险的行动?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得到时候会有那么一刻,安全问题几乎成为我们整个公司考虑的重心。这并不意味着你只需要一个安全团队就够了。比如当我们推出 GPT-4 的时候,需要整个公司去思考所有这些不同的方面,以及它们是如何相互配合的。我认为,越来越多的公司成员会一直不断地思考这些问题。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">随着人工智能变得越来越强大,这确实是人类会越来越多思考的问题。所以,OpenAI 的大部分员工在想的,至少在某种程度上会考虑,“安全”这个词。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">广义上来说,没错。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我很好奇,这个问题有着怎样广泛而全面的定义?会有哪些不同的危害产生?这些危害是仅仅出现在技术层面,还是几乎可以被视作安全威胁?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这可能涵盖所有这些方面。是的,我本来想说的是,会有人,比如国家行动者,试图盗取这个模型。这还包括所有的技术对齐工作,以及社会和经济带来的影响。我们面对的不仅仅是让一个团队思考如何让模型保持一致,而是真正实现好的结果需要我们全面的努力。</p><h2 id=\"id_1473113124\" style=\"text-align: start;\">Part 11:跨越到 GPT-5</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哎,这可真是一个危险的领域啊。不好意思一直纠结于此,即便你现在还不能谈论具体细节,但有没有哪些从 GPT-4 到 GPT-5 的跨越让你特别激动呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我对变得更聪明感到非常兴奋。我知道这么说听上去可能有点不够严肃,但我认为真正激动人心的是,我们并不是只在某一个领域进步,而是在各个方面都在变得更好。我认为这超级酷。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,确实有那么一刻,就像魔法一样。我是说,你遇到某些人,跟他们相处,跟他们聊天。你可能说不上来是什么原因,但就是感觉他们懂你。这不仅仅是智慧,而是某种其他的东西。我觉得这就是GPT进步的地方。不是说,对,你可以指出“看,这里它没懂,那里它没搞明白”,而是这种智慧的连结到底有多深。你感受到,在你那些表达不够完善的指令中,它能抓住你真正问题的本质。我也为此感到兴奋。毕竟,我们所有人都渴望被聆听,被理解。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这肯定没错。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这种感觉真是奇妙。甚至在编程时,当你表达出某个想法,或者仅仅是 GPT 做出的自动补全,当它真正懂得你所思所想的时候,那种感觉绝对是极好的。我期待着它能变得更加出色。从编程的角度出发,展望未来,你觉得人类在未来5年、10年将会做多少编程呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我想,未来会发生很多变化,但这些变化会带来全新的形态。可能将会有人完全使用自然语言来编写程序。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">当然,我会使用自然语言来翻译。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,现在没人会通过编写代码来写作了。也许有那么几个例外。现在更没人用打孔卡编程了吧。我敢肯定还能找到个别人在这么做,不过你明白我的意思。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,你可能会收到很多愤怒的评论。没错,懂得 Fortran 的人确实不多。我一直在找能编 Fortran 的程序员,真是难找啊。我懂你的意思。但这也改变了我们所说的程序员的必备技能或者倾向性质。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">改变了所需的技能组合。至于它会改变天赋倾向有多少,我就不太确定了。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,是相同类型的解谜游戏,所有那些事儿。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">也许吧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">编程确实挺难的。那么,要怎样才能迈过最后那 1% 的鸿沟呢?这到底有多困难啊?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,我觉得在大部分情况下,那些这个领域里最出色的实践者都会运用多种工具。他们会用自然语言来处理一些任务,而当他们需要为某些特定的场合编写 C 语言代码时,他们也会毫不犹豫地去做。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我们会不会在将来某个时点,看到 OpenAI 推出的类人机器人或者具有人类智能的机器人大脑呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">在某个时候吧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">对你而言,实体化的 AI 有多重要?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得如果我们有了 AGI(人工通用智能),但现实世界的事务只能靠让人类动手去完成的话,那真的挺让人沮丧的。所以,我衷心希望在这个转变过程中,<strong>随着这种阶段性的变化,我们也能开发出人形机器人或其他能在物理世界中操作的机器人</strong>。</p><p style=\"text-align: justify;\">我们是一家规模不大的公司,我们得真正集中精力。不过,我们迟早会重新涉足机器人领域。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这听起来既令人振奋又让人心生威胁。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">为什么?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">因为我们马上又要聊回机器人的话题了。这就跟《终结者》里的剧情似的——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>我们会继续投入精力去研发机器人。</strong>当然了,我们自己可不会变成机器人。</p><h2 id=\"id_3143035453\" style=\"text-align: start;\">Part 12:AGI</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的。你觉得我们,包括你我在内的人类,会在什么时候构建出 AGI 呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我以前很喜欢猜测这个问题。但随后我意识到这个问题其实构建得很糟糕,因为大家对于什么是 AGI(通用人工智能)有着截然不同的定义。所以,我觉得更合理的讨论方式是,我们何时能够构建出能够执行特定能力 X、Y 或 Z 的系统,而不是什么时候模糊不清地越过某个里程碑。AGI 并不是一个终点,它更像是一个开始,但它其实更多是一个里程碑,而不是那些。</p><p style=\"text-align: justify;\">但为了不逃避这个问题,我的预计是,到这个十年末,或许甚至早于那个时候,我们会有一些非常强大的系统,我们看着它们就会说:“哇,这真是了不起。”如果我们现在能看到它的话。可能等我们真的到那时,我们的看法已经适应并有所调整了。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但是如果你拿 ChatGPT,哪怕是 3.5 版本,给艾伦·图灵看,或者不用他,就给 90 年代的人看,他们可能会说:“这肯定是通用人工智能了。”呃,也许不是肯定,但确实有很多专家会这么认为:“这就是通用人工智能。”</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">是的,但我并不认为3.5 真的改变了世界,它或许<strong>改变了世界对于未来的预期,这实际上非常关键</strong>。它也确实让更多人开始认真看待这个领域,将我们推向了一条新轨道。这同样很重要。因此,我并不是要贬低它的价值。我觉得如果我在取得这样的成就后退休,那么我对自己的职业生涯将会相当满意。但是将它视作一个具体物件来看,我不认为我们会回头看那个时刻,并说,“那是一个真正改变世界本身的分水岭。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">所以对你而言,你期待的是世界将发生一些真正重大的变革——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">对我来说,这正是 AGI 含义的一部分。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">类似奇点出现的转变?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不,绝对不是这样。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但这只是一个重要的转变,就像互联网的诞生,还有 Google 搜索那样。你觉得现在是一个转折点吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">现在的全球经济在你感觉上有变化吗,或者说,跟我们推出 GPT-4 之前相比,有什么本质的不同吗?我猜你的回答是没有。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">不,不是这样。它或许只是一个非常实用的工具,很多人都会用它来帮助自己解决各种问题。但它给人的感觉并没有什么不同。你的意思是说——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我的意思是,对 AGI —— 也就是通用人工智能的定义,每个人都有各自的理解。也许你对它的看法和我不太一样。但在我看来,这个因素应该被包括在内。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">也可能会出现一些重大的、具有戏剧性的时刻。在你看来,AGI 做出哪些事情会给你留下深刻印象?当你独自一人与系统在房间里对话时。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这对我个人而言至关重要。我不确定这是否是正确的定义,但我相信,只要一个系统能够显著加快全球科学发现的速度,那就是一件极其了不起的事情。我深信,大多数真正的经济增长都源自科学和技术的进步。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我同意你的看法,这也是为什么我不太喜欢最近几年那些对科学持怀疑态度的现象。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">绝对的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">但实际上,科学发现的速度是可以衡量的。不过,即便仅仅是看到一个系统拥有真正新颖的、科学的直觉,那也将是不可思议的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你很可能会成为第一个打造出能在其他人之前与之交流的 AGI 的人。你打算和它聊些什么呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,肯定是这里的研究人员会在我之前做到这点。不过,我确实深思熟虑过这个问题。就像我们之前谈到的,我觉得这是个不太好的出发点。但如果真的有人跟我说:“好的,Sam,一切准备就绪了。这里有一台笔记本电脑,里面是 AGI。你现在可以去和它交流。”那么,我会觉得意外地难以决定我要问些什么,对于我期待第一台 AGI 能回答的问题也难下定义。那第一台 AGI 应该不会是那种我所想的,“去给我讲解物理学的大一统理论,也就是关于物理学的万有理论。”虽然我非常想问这个问题,也非常想知道答案。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你可以就“这样的理论存在吗?能存在吗?”提出是非问题。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,那么,我首先会问的问题就是这些。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">有还是没有。那么基于这个,“宇宙中是否有其他外星文明存在?有还是没有?你的第一直觉是什么?”然后你就这么问。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">嗯,我是说,我并不期望第一个通用人工智能(AGI)能够回答那些问题,哪怕只是用“是”或者“不是”来简单回答。但如果它真的能够回答,那么这些问题肯定会是我所关注的重点问题。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">或许你可以开始给出概率估计?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">也许吧。我们可能得先发明更多技术,去测量更多事物。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">哦,我懂了。只是数据量不够。只要它能继续——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,它可能会这样指示你:“你想了解关于物理学的这个问题的答案,我需要你构建这个装置,完成这五项测量,然后把结果告诉我。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,“你到底想要我做什么?我得先拿到那台机器,然后我再帮你处理来自那台机器的数据。” 或许这能帮你打造出一台新机器。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">可能吧,可能吧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">在数学方面,可能还要证明一些定理。你对这个领域也感兴趣吗?对理念进行形式化探讨,你觉得怎么样?谁要是率先开发出通用人工智能,那他就能掌握巨大的力量。你觉得自己能驾驭那么大的权力吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">看,我就直言不讳地说吧。本来我要说的是,而我或者其他任何一个人都不应该对 OpenAI 或者 AGI 拥有完全的控制权。我觉得要有一个强健的治理体系才行。我可以举出去年我们董事会的一系列戏剧性事件来证明,起初我没有进行抵抗,我就这么表示了,“嗯,那是董事会的决定,即便我认为这是个很糟糕的决策。”</p><p style=\"text-align: justify;\">但后来,我显然开始进行反抗,我能解释这背后的微妙差别,以及为什么我觉得后来反抗是合理的。但正如很多人注意到的,虽然董事会有法律上解雇我的权利,但实际操作起来,情况并非那么简单。<strong>这本身就是一种治理上的失败。</strong></p><p style=\"text-align: justify;\">现在呢,我感觉自己能够完全为这些具体情况辩护,而且我认为大部分人都会赞同这一点。但这的确让我很难对你说:“嘿,董事会完全可以解雇我。”一直以来,我都不希望对 OpenAI 拥有超级投票权。我从来没有拥有过,也从未想要过。即使经历了所有这些混乱,我现在仍然不想要这种权力。我始终认为,不应该由任何一个公司来做出这样的决定,我们真的需要政府来制定相关规则。</p><p style=\"text-align: justify;\">我知道这样会让像马克·安德里森那样的人指责我试图进行监管俘获,但我宁愿在这点上被误解。那不是真的。我相信随着时间的流逝,我们为什么这样做的重要性将会被证明出来。当然,我在 OpenAI 的路上做出了不少错误决策,当然也有不少正确的,总体来说,我对我们的成绩感到骄傲。</p><p style=\"text-align: justify;\">但我不认为应该,也不会有任何一个人来控制整个局面。现在的局势已经变得过于庞大,它正以一种积极健康的方式在整个社会中发展。<strong>我不认为任何个人应该控制 AGI 或者朝 AGI 迈进的进程,我也不认为目前的情况是这样。</strong></p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">谢谢你的袒露。你说得很有力,也很有洞察力。确实,董事会有法律上的权力来解雇你,这是个事实。但是人们可以通过影响大众来对抗董事会的决定。不过,我觉得这个情况还有一个更正面的方面,就是人民依然掌握着权力,所以董事会也不能变得太专横。所有这一切中,都存在着一种权力的平衡。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">权力的平衡当然是好事。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你害怕对 AGI 本身失去控制吗?许多人对存在的风险感到担忧,并不是因为国家行为体,也不是因为安全问题,而是担心 AI 自身。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">目前来看,这还不是我最头疼的事。确实有过我特别担心这个的时候。或许将来这又会成为我最关注的问题。但至少现在,它还不是。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你的直觉告诉你,为什么这件事不值得担心?是因为实际上还有一大堆其他的事需要操心,对吧?你认为自己可能会被这件事震惊吗?咱们——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当然可以。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">… 会吃惊吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">当然了。说这不是我最头疼的问题,并不意味着我不认为我们应该解决它。我确实认为我们需要在这方面下工夫。这是个极其棘手的问题,但我们团队里有很多优秀的人正在努力解决这个问题。同时,我觉得还有许多其他方面我们也必须处理得当。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">对你来说,现在要想跳出这个框框、连上互联网,还是挺困难的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我们之前谈论过戏剧性的风险。这正是一个戏剧性的风险。它有可能彻底改变人们对这一问题的认识。有一个由非常聪明的AI 安全研究人员组成的大团体,我觉得他们出发点是好的,却在这个问题上陷得很深。我会说他们在这个问题上没什么大的进展,但却异常沉迷其中。实际上,我对他们如此投入是感到高兴的,因为我确实认为我们需要对此深入思考。但是,我也认为这种专注挤压了对话空间,使得其他同样重大的AI 相关风险被边缘化了。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">让我问你个问题,你发推文为什么都不用大写字母?是不是你键盘上的 Shift 键坏了啊?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">为什么会有人在乎那个呢?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我特别在意。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">但为什么?我的意思是,其他人也都在问我同样的问题。你有什么直觉吗?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我认为原因相同。有这么一位诗人,E.E. Cummings,他大多数时候都不使用大写字母,就是为了向体制说一声“去你的”。我觉得人们之所以会很偏执,是因为他们希望你去遵守那些规则。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">你觉得事情真的是那样的吗?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我觉得吧,是这样的——</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">就好像是说,“这个家伙不守规矩。他发推文不用大写。”</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">嗯,对。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这感觉挺危险的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">他给人的感觉像是个无政府主义者。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">并不—</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你是在耍文艺吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我从小就是</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">Sam,要守规矩。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是在网络上长大的孩子。在那个时代,我在电脑上花费了大量时间与人聊天,你还能在某个时候登出即时通讯软件。而且,我在那儿是从不用大写的,我想大部分网络上的孩子都是这样,或许他们现在仍然不用。我也说不准。说到这儿,我真的在尽力回忆,但我觉得随着时间的流逝,大写字母的使用已经减少了。如果你读一读老式英语的写作,你会发现他们会在句子里随机地把许多单词,像名词之类的,用大写字母写出来,而我们现在已经不这么做了。我个人觉得,在句子开头大写第一个字母,以及对特定名词大写,这些都是些无谓的规则,不过也就罢了。</p><p style=\"text-align: justify;\">以前,我想我在发推特的时候甚至会用上大写字母,因为我试图显得更专业些。但在私信里,我已经很久没用过大写了。然后,像这些短格式、非正式的文本,它们慢慢地越来越接近我平时发给朋友的短信的风格。不过如果我打开 Word 文档,写一份公司的战略备忘录之类的东西,我还是会用上大写。同样,当我写较长、较正式的信息时,我也总是用大写。所以我还记得怎么做。但即便这样,这个习惯未来可能也会慢慢淡出。我也不确定。不过,我从未真正花时间去思考这件事,所以我也没有现成的——</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这很有意思。首先,能确认 Shift 键没有坏掉,这是件好事。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">它有效果。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我主要是担心你的-</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">不,这是有效的。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">… 在这方面的福祉。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我好奇,现在人们在谷歌搜索时还会不会用大写字母。比如说你只是给自己写点什么,或者在向 ChatGPT 提问题,还有人会特意去注意大小写吗?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">可能不是。但确实有一点可能性,只是非常小而已。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">如果人们觉得这样做是一种……因为显然,我肯定能逼自己使用大写字母。如果人们认为这是对他们表示尊重的一个标志,那么我可以接受去这么做。但说实话,我并没有太去考虑这件事。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我不觉得这是不尊重,但我认为这只是文明礼仪的一种惯性。然后,你突然意识到,如果这不代表尊重或不尊重,那么对于礼貌而言,它其实并不是那么重要。不过,我觉得有一批人,他们只是希望你能对此有所思考,有个哲学理念,这样他们就能舍弃这整个大写字母的问题。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得没有其他人会像我这样频繁地考虑这件事儿。我是说,可能也有几个人。我确实知道有些人——</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">人们每天都会花好几个小时去思考这个问题。所以,我真的很感激我们把这件事弄清楚了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">一定不只有我一个人在推特上不用大写字母吧。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">你可能是唯一一个推文不用大写字母的公司 CEO。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我甚至都不认为那是真的,不过或许吧。要是那样的话,我会非常吃惊。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">好的。我们会进一步调查,稍后再回到这个话题。既然 Sora 能够创造出模拟世界,那我就问你一个烧脑的问题吧。这是否让你更相信我们可能生活在一个模拟现实中,也许是由人工智能系统生成的?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">有些吧。我并不认为这是最确凿的证据。不过,我们能创造世界的事实,应该会在一定程度上提高每个人对此的接受程度或者至少增加一些对这个观念的开放性。但是,像 Sora 这样的产品我知道迟早会出现的。它来得比我预想的快,不过我认为这并没有给我带来太大的惊讶。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">确实如此。但考虑到…我们有理由相信它将会不断进步…你可以创造出全新的世界,这些世界虽然源自一定的训练数据,但当你注视它们时,它们却是新颖独特的。这让人不禁思考,创造这样的宇宙,构建一个超现实且像照片一般逼真的整个电子游戏世界,其实是多么容易。再进一步思考,我们穿上 VR 头盔,沉浸在这样的世界里会有多容易,而当我们迈向更基于物理规律的层面时,又会简单到什么程度呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">最近有人和我分享了一个观点,我认为它非常深奥。有时候,会有一些听起来简单,却极具迷幻色彩的洞见。譬如平方根函数,算 4 的平方根,轻而易举。算 2 的平方根,那好,现在我得考虑一种新的数字类别了。但一旦我构思出这个简单的概念——平方根函数,它既可以给孩子解释,又可以通过观察基础几何图形来理解,那么你就可以提出这样一个问题:“负一的平方根是什么?”这就是它带有迷幻气息的原因。这个问题会将你引入一个完全不同的现实维度。</p><p style=\"text-align: justify;\">你可以找到很多其他的例子,但我觉得这个想法 —— 即一个简单的平方根运算符能带来如此深远的洞见和开辟新的知识领域 —— 在很多方面都成立。我认为,存在很多这种运算符,它们会让人们相信自己钟爱的模拟假说版本可能比之前想象的更有可能成真。但对我个人而言,Sora 工作的事实并不排在我的重要性前五名之内。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我觉得,大体上,人工智能在最佳状态下会成为那种门户,简单而仿佛是迷幻剂那样,通向另一种 C 波段现实的门户。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">这个可以肯定。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这真是挺让人兴奋的。我以前没尝过阿亚华斯卡,不过我很快就会试试。几周后,我就要前往前面提到的亚马逊雨林了。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">兴奋吗?</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我对这件事感到很兴奋。不过我不是因为ayahuasca那部分感到兴奋,虽然那也挺好的。但我要在丛林深处待上几周。这既让人兴奋又让人害怕。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我为你高兴。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">那里处处是危险,随时都可能被吞食、致命或者中毒,但那同时也是大自然的一部分,是大自然的巨大机器。在亚马逊丛林中,你会不由自主地去赞叹大自然的机制。就像是这样一个系统,它时刻在自我更新中,无论是秒、分还是时。那正是一台机器。这让你对我们所拥有的一切产生敬意,这种属于人类的特质从某个地方诞生。这个演化的巨大机器创造了一切,而在丛林中,它的表现尤其明显。希望我能安然无恙地走出丛林。如果不行,那么这可能就是我们最后一次愉快的交流了,所以我真心感到非常珍视。</p><h2 id=\"id_2468430590\" style=\"text-align: start;\">Part 13:外星人</h2><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">当你仰望繁星点点的夜空时,你认为宇宙中还存在其他的外星文明吗,也是拥有智慧的那种?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\"><strong>我非常希望相信答案是肯定的</strong>。我觉得费米悖论特别难以理解。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">我发现智能不擅长处理这些事情,这挺让人害怕的。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">非常吓人。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">… 强大的技术。但同时,我相当有信心,宇宙中肯定存在大量的智慧外星文明。可能只是穿越太空非常艰难而已。</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">很有可能。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">这也让我思考了智能的本质。或许我们真的对智能的样子视而不见,AI 可能会帮助我们认识到这一点。智能远不止像 IQ 测试和简单解谜那样简单。它有更深层的东西。关于人类的未来,关于这个我们正在建设的人类文明,有什么让你感到充满希望的呢?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我觉得过去非常重要。我是说,我们只要回顾一下人类在并不漫长的历史里取得的成就,虽然存在巨大的问题、深刻的缺陷,还有许多让人深感羞耻的事情。但总体上,这是非常振奋人心的。这给了我很多希望。</p><p style=\"text-align: justify;\">我好奇的是,AGI 是否会更像是一个单独的大脑,或者它更像是联系我们每个人的社会基础设施,就像是一座脚手架?从你的高曾祖父母那里遗传下来,你的基因并没有多大变化,可是你的能力和知识却有了天壤之别。这不是因为生物学上的演变。我的意思是,你可能会更健康一些,也许有现代医学的帮助,饮食更加营养,等等。但重要的是,你拥有的是我们所有人共同构建的知识和技能的框架。没有一个人能够独立制造出 iPhone。没有一个人能够独自发现所有的科学知识,但你可以利用这些知识。这给了你惊人的能力。所以从某种程度上说,这是我们大家共同创造的成果,这让我对未来充满希望。这真的是一项集体努力的成果。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">是的,我们确实是站在巨人的肩膀上。你之前提到,当我们谈到那些充满戏剧性的 AI 风险时,有时候你会担心自己的生命安全。你有没有想过自己的死亡?这让你感到害怕吗?</p><p style=\"text-align: justify;\">Sam Altman</p><p style=\"text-align: justify;\">我是说,如果我知道自己明天会中枪,我今天的感受就会是,“哎呀,这太令人难过了。我多想看看后面会发生些什么呢。多么不可思议、多么有趣的时代啊。” 不过,我最主要的感觉还是会非常感激我所拥有的生活。</p><p style=\"text-align: justify;\">Lex Fridman</p><p style=\"text-align: justify;\">能获得那些时刻,是啊,我也是。这是一段非常美妙的人生。我得以欣赏人类创造的杰作,我相信 ChatGPT 就是其中之一,OpenAI 正在做的一切也是。Sam,能再次与你交流,真的是我的荣幸,也是一种乐趣。</p></body></html>","source":"lsy1690508328926","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>奥特曼最新万字访谈:GPT-5能力提升超乎想象</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n奥特曼最新万字访谈:GPT-5能力提升超乎想象\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-03-19 10:46 北京时间 <a href=https://wallstreetcn.com/articles/3710759><strong>硬AI</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>3月19日,OpenAI CEO 山姆·奥特曼(Sam Altman)再度做客美国知名播客栏目Lex Friedman。在这次持续了近两个小时的采访中,奥特曼不仅深入剖析了OpenAI董事会近期的变动,还畅谈了首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)的未来动向、与马斯克起诉案相关的纷争,以及引发巨大讨论的AI文字转视频工具Sora、豪掷7万亿美元的芯片计划、即将推出的新一代大语言...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3710759\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/13342b0803be05757a41bea276d75538","relate_stocks":{},"source_url":"https://wallstreetcn.com/articles/3710759","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1127593301","content_text":"3月19日,OpenAI CEO 山姆·奥特曼(Sam Altman)再度做客美国知名播客栏目Lex Friedman。在这次持续了近两个小时的采访中,奥特曼不仅深入剖析了OpenAI董事会近期的变动,还畅谈了首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)的未来动向、与马斯克起诉案相关的纷争,以及引发巨大讨论的AI文字转视频工具Sora、豪掷7万亿美元的芯片计划、即将推出的新一代大语言模型GPT-5,乃至通用人工智能(AGI)的远景规划等。重点包括:算力将成为未来最宝贵的财富之一,会成为未来的“货币”,人工智能的发展将是一场巨大的权力斗争。公司、组织、国家都可能为了争夺这份未来的“货币”而展开竞争。在这场竞争中,OpenAI得关注如何公平、公正地分配和使用算力。不能让算力加剧社会不平等,而应该成为推动全人类进步的力量。被罢免的那个周末痛苦万分,看自己的推文就像看悼词,董事会应该拥有重大的权利,但并不是从自身利益出发,而是能够对全世界负责,这一经历有助于增强韧性。OpenAI正在寻找新的董事会成员,希望引入具有不同专业背景的人才,包括非营利组织、学习型公司、法律和治理等领域的专家。GPT-4是一个重要的里程碑但并不足以改变世界,真正意义上的AGI应该能够显著提高科学发现的速度。Ilya 从来没有见过通用人工智能(AGI),没有任何人见过,OpenAI也还没造出通用人工智能,Ilya对未来深思熟虑,非常关心人工智能的安全性和社会影响。对马斯克来说,诉讼OpenAI这件事并不是开源与否的问题,Grok之前从没开源过任何东西,直到有人指出马斯克这样做有些伪善,才在最近开源。开源模型在未来肯定有一席之地,尤其针对那些规模较小、可以在本地运行的模型。OpenAI的目标是创建能够理解和生成自然语言的系统,这些系统可以帮助人们更高效地完成任务。OpenAI最重要任务就是让每个人免费地使用AI,作为一项公共福利,通过提供强大的AI工具来赋能个人和社区,开源应该是有选择性的。大部分真正的经济增长来自科学技术的进步,人工智能是一个工具,它将在更短的时间内帮助人类执行越来越多的任务,这让人类能够在更高层次上进行抽象思考。人工智能可能更像是人类之间相互支撑、相互联系的社会结构。未来编程可能会以自然语言交互的方式进行,传统的编码方式可能会逐渐减少。目前AI安全研究者过于关注某些具体的技术进步,而忽视了其他一些重要的问题,人工智能军备竞赛是个双刃剑。GPT-5的性能会全面提升,GPT-5和GPT-4的差距,可能会跟GPT-4和GPT-3一样大,仍旧在研究OpenAI机器人。Sora将进一步展示了AI在创造复杂、动态和视觉吸引人的虚拟世界方面的巨大潜力,这些技术不仅对游戏和娱乐产业有重大意义,也为科学研究、教育和工业模拟等领域提供了新的可能性。人工智能将推动人类社会持续进步。谈话内容,按顺序整理如下:1:05 - OpenAI董事会纷争18:31 - Ilya Sutskever24:40 - 埃隆·马斯克诉讼案34:32 - Sora44:23 - GPT-455:32 - 记忆与隐私1:02:36 - Q*1:06:12 - GPT-51:09:27 - 7万亿美元的算力1:17:35 - 谷歌和Gemini1:28:40 - 跃升到GPT-51:32:24 - AGI(通用人工智能)1:50:57 - 外星人以下为访谈全文:OpenAI 董事会之争Lex Fridman请你带我了解一下从11月16日星期四开始的,或者对你来说是11月17日星期五的 OpenAI 董事会那一连串的事件。Sam Altman那确实是我一生中最痛苦的职业经历,混乱、羞耻、心烦,还有很多其他的负面情绪。当然也有不少好的方面,但我当时被肾上腺素冲得头昏眼花,从而能够停下来细细品味那些宝贵的经历。我翻看了那个时期自己发的一条旧推特,感觉就像在读自己的悼词,看着别人对你说出的那些美好的话,感受到来自我所爱和在乎的人的强大支持,那真的非常美妙。整个周末,尽管遭遇了一些不愉快的事情,但总体而言,我感受到的爱远远超过了恨。尽管当时感觉自己完全搞不懂发生了什么,接下来会发生什么,这感觉真的很糟糕。确实有些时候,我认为这可能会成为AI安全领域发生的最糟糕的事情之一。不过,我也觉得,它发生得相对较早是件好事。但我也很庆幸这一切发生得相对较早。我认为在OpenAI成立和通用人工智能(AGI)诞生的过程中,注定会有一系列疯狂且具有爆炸性的事件发生,而且未来也许还会有更多疯狂的事情发生。这些事件虽然令人不安,但也为我们提供了宝贵的经验和教训,为未来应对更多挑战做好了准备。Lex Fridman但你有没有预感到,你可能会经历某种权力的角逐?Sam Altman通往AGI的道路肯定会充满激烈的权力角逐。Lex Fridman所以你必须得经历这个过程,正如你所说,要尽可能频繁地迭代,弄清楚如何构建董事会的架构,如何进行组织管理,如何选对合作伙伴,以及如何有效沟通,目的是为了尽量减少权力斗争。Sam Altman没错Lex Fridman放轻松Sam Altman但现在,那感觉像是一段已经过去的时光,曾经非常艰难、痛苦,难以忍受,但我们又回到了工作岗位,事情忙得不可开交,强度巨大,以至于我并没有太多时间去回想那段经历。那之后有一阵子,可能是一个月左右,或者说 45 天之后,我仿佛处于一种恍惚状态,每天都感觉自己像漂流瓶一样,茫然四顾。我的精神完全崩溃了,情绪也陷入了极度低落。Lex Fridman就在个人心理层面上?Sam Altman是的,非常痛苦。而且在那种情况下还得坚持管理 OpenAI,难度真的很大。我只想找个洞穴钻进去,好好休养一阵子。不过现在,我们又回到了奋战在我们的使命上。Lex Fridman嗯,对于你这样有极高潜力打造 AGI 的人来说,回过头去反思董事会架构、权力动态、公司运作方式、研究与产品开发之间的张力、金钱等因素,无疑是有益的。这样一来,未来你在建立 AGI 的道路上,可以更加有条不紊,少一点戏剧性冲突。所以,不妨去那儿走一遭,不仅是为了你作为领导者的个人心理层面的成长,同时也是为了搞清楚董事会结构和所有那些复杂混乱的事务。Sam Altman我确实从中学到了许多关于组织结构、激励机制以及我们对董事会的期望。在某种意义上,这种情况现在发生我觉得还是有它的价值的。我认为这可能不是 OpenAI 最后一次面对如此大的压力,但这无疑是一个相当紧张的时刻。我的公司差点就垮了,除了考虑很多其他我们必须为 AGI 准备好的事情外,思考如何打造一个有韧性的组织、如何构建一个能承受世界压力的结构体系,我认为这非常关键。Lex Fridman你能感觉到董事会在决策过程中的深度和严格程度吗?能否透露一下这种情形下涉及的人与人之间的动态是怎样的?是不是就几次对话后事态突然激化,然后就有人说“为什么不开除 Sam”这种话?Sam Altman我认为董事会成员总体上都是出于好意的人,我相信在那种压力环境下,人们感到时间紧迫或其他什么,人们会做出不那么明智的决定都可以理解。我认为OpenAI面临的挑战之一将是,我们需要有一个擅长在压力下运作的董事会和团队。Lex Fridman你觉得董事会的权力过大了吗?Sam Altman我觉得董事会理应掌握重要的权力,但是,我们注意到,在大多数公司架构中,董事会通常需要对股东们负责。有时人们拥有超级投票权或其他什么。在这个情况下,我觉得对于我们的架构来说,我认为我们结构中的一个问题是,我们可能没有充分考虑到非营利组织董事会实际上掌握着很大的权力,他们并不真正向任何人负责,除了他们自己。这样有它的好处,但我们更希望的是 OpenAI 的董事会能够对全世界负责,尽管我们知道在实践中这可能很难做到。Lex Fridman所以他们宣布成立了一个新的董事会。Sam Altman嗯,对。Lex Fridman刚开始是一个新的小型董事会,现在又换成了新的正式董事会?Sam Altman我们的董事会还没有最后敲定。我们已经添了一些成员,接下来还会继续增加。Lex Fridman加了一些。好的。在新版本里修复了之前版本哪些可能出现的问题呢?Sam Altman旧董事会在大约一年时间里逐渐缩减了。起初是九个人,后来减到六个,接着我们在增补新成员上意见不统一。我觉得董事会中也缺乏经验丰富的成员。而现在 OpenAI 的新董事会成员们都有着更多的董事会工作经验。我认为这会有所改善。Lex Fridman这个问题受到了不少批评,比如有人对拉里·萨默斯被加入董事会表示不满。你们挑选董事会成员的过程是怎样的?这个过程中涉及哪些因素?Sam Altman选择Bret Taylor和萨默斯为董事会成员是在那个非常紧张的周末做出的决定,而那个周末真是就像坐过山车一样,给人一种大起大落的感觉。我们尝试就新的董事会成员名单达成一致,这些成员既要让这里的执行团队感到满意,也要得到原董事会成员的认可。 实际上,萨默斯是原董事会成员推荐的人选之一。至于Bret,我想在那个疯狂周末之前,我就提议过他,但他当时很忙,不想接受这份工作。之后,我们确实需要帮助,他才加入进来。我们也考虑了很多其他人选,但我觉得如果我回来的话,我需要更换新的董事会成员。我不认为我可以在同样的人员配置下再次与原董事会合作,尽管后来我们决定让亚当·德安吉洛(Adam D'Angelo)留下。但我们考虑了各种配置,最终决定想要组建一个三人的董事会,并需要短时间内找到两名新的董事会成员。 所以那些决定确实是直接做出的,你必须在战场上迅速做出决定。那时你没有时间设计严格的流程。对于之后的新的董事会成员,以及我们还将要继续添加的新成员,我们有一些认为对董事会来说重要的标准,我们希望这些人具备的不同专长。与招聘一名高管不同,他只需要把一个角色做好,但对于董事会成员来说,他需要需要在治理和思考方面表现出全方位的能力。因此,布雷特说的一句话我很认同,那就是我们想要以成批的形式招聘董事会成员,而不是一次一个地招聘。我们正在考虑的是一群能够带来非营利组织专业知识、公司运营专业知识、良好的法律和治理专业知识的人,这是我们试图优化的目标Lex Fridman那么,董事会成员个人的技术水平重要吗?Sam Altman不是每个董事会成员都需要这类素养,但确实有一些人需要。这也是董事会职责一部分。Lex Fridman人们可能还不太了解 OpenAI 的有意思的一面,我自己肯定也不够了解,那就是运营业务的所有那些细枝末节。当人们想到董事会,再想到那些戏剧化的元素,他们首先想到的是你。他们会思考,如果你们开发出通用人工智能(AGI)或者其他一些具有巨大影响的产品,并且成功将它们推向市场,那么你和董事会之间会有怎样的对话呢?他们还会考虑,在这种场景下,要组建一个怎样的团队来进行决策和讨论?Sam Altman你看,我认为董事会里肯定需要一些技术专家。同时,也需要那些会考虑到:“我们怎样部署这项技术才能最大限度地造福人类?”的人。还需要那些有着截然不同视角的人。我想,像你我这样的人可能会犯的一个错误就是以为只有技术上的理解才是关键,这确实是你希望董事会讨论的内容之一,但还有很多其他方面,比如这项技术将如何影响社会和人们的生活,这些你也同样希望能够在董事会中得到体现。Lex Fridman你是在审查他们过去的成就记录,还是只是跟他们进行交流?Sam Altman过往经历很重要,但有些职位我完全不看重过往经历,只看他的上升势头,忽略掉Y轴的截距。Lex Fridman谢谢你。感谢你用数学的方式向观众阐明问题。Sam Altman作为董事会成员,我确实更在乎 Y 轴截距。在这方面,我觉得对于过往业绩的记录能说的深入之处很多,而且经验是一种很难替代的东西。Lex Fridman你是尝试将过往经历拟合为多项式函数还是指数函数?Sam Altman这个比喻有点牵强。Lex Fridman好的,你之前提到了那个周末经历的一些低谷时刻。在心理上,你都遇到了哪些挫折呢?你有没有想过干脆去亚马逊雨林,尝试一下阿亚瓦斯卡(一种致幻剂),然后就此隐匿天涯呢?Sam Altman这段时间真的很糟糕,不过也有一些非常棒的时刻,我的手机简直要爆炸了,一直收到来自我日常工作的伙伴们,以及那些十年未见的老朋友们发来的暖心信息。我应该更加珍惜这些时刻,但当时我忙于应对危机,没能充分感受到这份温暖,不过这确实让人感觉很啊后。总体而言,那个周末非常痛苦,它就像是一场在公众视线中打响的战斗,出乎意料地让我筋疲力尽,远比我预期的要累。通常争斗本就令人筋疲力尽,而这场尤其如此。董事会在周五下午做了这个决定。我真的很难获得任何答案,但我也觉得,既然董事会有权这么做,那么我就应该花点时间好好想想我接下来想要做什么。不过,我会试着在这件事中寻找隐藏的幸运。我当时心想,我的目前职位在 OpenAI,或者至少过去是,负责运营一个规模相当大的公司。我一直最喜欢的部分就是与研究者们共事。然后我就在想,对,我完全可以去从事一项高度聚焦的 AGI 研究工作。这个想法让我感到很兴奋。当时我甚至没意识到,所有这些努力可能会化为泡影。那是在一个星期五的下午。Lex Fridman所以你已经接受了这一的终结……Sam Altman非常快,真的非常快。我确实经历了一段时间的迷茫和愤怒,但这种状态转瞬即逝。到了周五晚上,我已经在跟人讨论下一步该怎么做,而且我对此感到振奋。我记得是周五晚上,我首次听到我们执行团队的人说:“嘿,我们将会反击。” 然后,我带着兴奋的心情上床睡觉了,心想,向前冲。Lex Fridman你能睡着吗?Sam Altman不多。有一段蛮奇怪的时期,大概四天半吧,我几乎没怎么睡觉,也没怎么吃东西,但是依然精力充沛。你会在战时了解到一些关于肾上腺素的奇特现象。Lex Fridman所以你已经接受了,这个被你视为孩子的 OpenAI 会有失败的一天。Sam Altman我当时对那个新东西特别激动。就那么想着,“行吧,这玩意儿确实疯了点,但管它呢。”那天周六早上,两位董事会成员给我打电话说,“嘿,我们并不是想搅局。我们不打算在这里大把存储价值。我们能谈谈你回归的事情吗?”起初,我真的不想回去,但后来我又仔细思考了一番,我意识到我非常关心这里的人,我的合伙人和股东们。我爱这家公司。于是,我想了想,对他们说:“好吧,不过我有我的条件。”而那整个周末,是最让人痛苦的时刻,我不断地反思,也被告知,而且不只是我,我们整个团队都在想,我们正在努力维持 OpenAI 的稳定,而此时全世界似乎都在试图将其分崩离析,到处都有人在尝试挖角。我们一直被告知,“好了,我们快要弄完了。我们快要完成了。我们只需要再多一点点时间。”这让人非常困惑。直到周日晚上,我几乎每隔几小时就会以为我们就要结束了,我们能找到方法让我回去,让一切恢复原状。但董事会随后任命了一位新的临时CEO,那一刻我感觉真的很难受。那是整件事中最低谷的时刻。我跟你说,虽然感觉非常痛苦,但我在那整个周末都感受到了很多爱。除了那个周日晚上的瞬间,我不会说我的感受是愤怒或恨,相反,我感受到了来自人们的爱,也对他们满怀爱意。那很痛苦,但那个周末的主导情绪是爱,而不是恨。Lex Fridman您曾对 Mira Murati 给予高度评价,说她在那些关键的、平静的时刻给予了特别的帮助,就像您在推文中提到的那样。或许我们可以稍微绕个弯。您最欣赏 Mira 的什么特质呢?Sam Altman她在那个周末的混乱中表现得非常出色,但人们往往是在危机时刻,无论好坏,才会关注领导者的表现。然而,我真正看重的是,在一个平凡的周二早上 9 点 46 分,在日常的平淡和繁琐中,领导者如何行动。一个人怎样出席会议,他们作出决策的质量如何。这就是我提到的“静默时刻”的含义。Lex Fridman绝大多数的工作都是日复一日,在一次次会议中慢慢推进的。只需要聚精会神,做出优秀的决策就行了。Sam Altman是的,看吧,你想要花费过去二十分钟探讨的那件事——我明白——是关于那个非常戏剧化的周末,但那并不是 OpenAI 的核心所在。OpenAI 的重心实际上在于其余的七年。这为我们提供了洞察人性的窗口,包括人性的极致以及或许正是在那些时刻,人类文明的某些毁坏和伟大成就得以显现,因此这非常具有启发性。Part 2:Ilya Sutskever 去哪了Lex Fridman那么关于 Ilya 的问题,我可以问你吗?他是不是被关在某个秘密核设施里作为人质?Sam Altman不是Lex Fridman那么普通的秘密基地呢?Sam Altman不是Lex Fridman一个不涉密的核设施怎么样?Sam Altman肯定也不是Lex Fridman这事儿已经有点成梗了。你跟 Ilya 认识很长时间了对吧。他显然卷入了那场董事会的风波。现在你俩的关系怎样?Sam Altman我非常喜爱 Ilya,对他也有着极大的敬意。关于他的计划,我现在真的没什么可以透露的。这应该由他来回答。不过,我真心希望我们能够持续合作,至少在我的职业生涯剩余时光里。他比我年轻那么一点,也许他会比我工作更长久一些。Lex Fridman有个流传的段子说,他看到了一些东西,好像是他看到了AGI,这件事让他内心充满了忧虑。Ilya 到底看到了什么?Sam AltmanIlya 从来没有见过通用人工智能(AGI)。我们任何人都还没有。我们也还没造出通用人工智能。不过,Ilya身上有很多让我敬佩的品质,其中一个就是他非常重视关于通用人工智能及其广泛的安全问题,这包括它可能对社会造成的影响。随着我们不断地取得显著进展,这几年我最多的时间都是和伊利亚一起讨论这将意味着什么,我们需要怎么做才能确保做得正确,以保证我们的使命能够成功完成。所以,虽然伊利亚没有见过 AGI,但他对确保我们在这个过程中行得正、走得稳的深思熟虑和忧虑,对人类来说是一份宝贵的贡献。Lex Fridman我过去与他有过不少交流。我觉得,每当他谈到技术,他总是持有一种长远的思考方式。他不太关心一年内会发生什么,而是在想象10年后的情况,基于首要原则去思考:“好的,如果这东西真的能够扩展开来,那么基本要素是什么呢?会有哪些发展?”这种思考方式为他们在关注所有的安全问题等方面打下了坚实的基础,这也让和他对话变得非常吸引人。你了解他为何近来鲜有发声吗?他是不是在做些灵魂深处的思索呢?Sam Altman再说一次,我不想代表 Ilya 发言。我觉得你应该亲自去问问他。他绝对是个思考深刻的人。我认为 Ilya 始终在以非常积极的方式进行灵魂探索。Lex Fridman是的,他还真懂得沉默的魅力。我听说他其实挺逗的,不过我个人还没机会见识过这一面。Sam Altman当那种情况发生时,感觉真的很温馨。Lex Fridman我还没遇到过傻傻的Ilya,不过我也挺期待这一天呢。Sam Altman我最近和他一起去了个晚宴,他当时正在和一只小狗玩,心情非常轻松、嬉皮,真的很让人觉得亲切。我当时就想:哇~这面是 Ilya 不太给外界看到的。Lex Fridman那么,就这整桩事情而言,你对董事会的架构满意吗?Sam Altman是的Lex Fridman… 关于这一切及其走向,你有何看法?Sam Altman我对新董事会的组建感到非常满意。在 OpenAI 的架构方面,董事会的职责之一就是进行审视,看看我们如何能够加强其结构的韧性。我们的首要任务是先确定新的董事会成员,但显然在这个过程中,我们对结构的认识有了显著的进步。我认为我没有什么特别深刻的见解。这是一段极其混乱和痛苦的经历。我觉得这就像一场怪异的完美风暴。这对我来说预示着未来的挑战,随着赌注的不断升高,我们需要有更为强健的治理结构、流程和团队。我很庆幸这一切在我还年轻时发生,但实际上这是一次异常艰难的经历。Lex Fridman这会不会使你在信任别人方面变得更加犹豫呢?Sam Altman是的Lex Fridman就个人而言?Sam Altman是的,我自认为是一个极度信任他人的人。我一向坚持的人生哲学是:不必太过担忧,不必在意那些偏执的疑虑和极端的可能性。这样做的代价可能是偶尔吃点小亏,但作为回报,你得以放松警惕地生活。然而这件事对我来说真的是晴天霹雳,我措手不及,它确实改变了我。我并不喜欢这种改变,但它确实影响了我对于对人默认信任的态度以及对潜在坏情况的规划。Lex Fridman你得在这方面多加留心。你担心自己会变得过于愤世嫉俗吗?Sam Altman我不害怕自己会变得过于愤世嫉俗。我觉得我本性里就很不愤世嫉俗,但我担心,自己可能逐渐丧失那种对别人的本能信任。Lex Fridman我其实还没把握好,对于那些正致力于开发通用人工智能的人而言,是信任模式更为适宜,还是持怀疑态度更好。这条路你走得真有意思。不过说到架构,我其实更关注人这一层面。你怎么做到让自己周围都是那些既在打造酷炫东西,又能作出睿智选择的人?因为你挣的钱越多,这件事的影响力也就越大,周围的人就越发变得诡异。Sam Altman我觉得你完全可以就董事会成员的问题,以及我应该给予的信任程度,或者说我应该采取不同的做事方式提出种种意见。但如果说到这里的团队,我相信你会给我一个非常高的评价。对于那些我每天都要共事的人,我心中充满了巨大的感激、信任和尊重。我认为,让自己被这样的人包围是极其重要的。Part 3:Elon Musk 的诉讼Lex Fridman我们共同的朋友 Elon Musk 起诉了 OpenAI。在你看来,他批评的核心问题是什么?他有多少批评是站得住脚的?又有多少是误会或不对的?Sam Altman我真的不清楚这到底是怎么一回事。最初,我们只认为自己将成为一个研究实验室,对这项技术未来的发展毫无头绪。那是七八年前的事了,现在想回忆起当时的情况真的很难,那个时候语言模型还没成为热门话题。我们甚至还没想到要开发一个 API 或者卖聊天机器人的访问权限。我们也没有想过要将其产品化。当时我们的想法就是,“我们就去做研究吧,至于研究成果能用来做什么,我们并不清楚。” 我想在探索完全新颖的事物时,你总是摸着石头过河,制定一些假设,而这些假设大多数最终都被证明是错误的。接着,我们意识到我们需要做出一些不同的事情,并且需要巨额的资本。所以我们就在想,行吧,当前的结构显然不太合适。我们该怎样去补救?补了一次又一次,最终我们得到的东西确实让人不禁挑挑眉毛,至少可以这么形容。不过,我觉得我们在每一步都做出了合理的决策。这并不是说如果能有机会回到过去,有个先知在旁边指导,我就不会选择完全不同的做法。不过,当时我们手边可没有先知。不管怎样,至于埃隆真正的动机是什么,我真的不清楚。Lex Fridman在 OpenAI 的博客文章中,他们给出的回应主要集中在为什么他们认为不应该继续推出完整版 GPT-3 API 的理由。他们提到了对模型潜在被滥用的担忧,以及他们认为现阶段需要加强监管和提高透明度。此外,他们也谈到了对于 AI 长期影响的责任感,并表示愿意与其他机构合作,确保 AI 的使用是安全和有益的。Sam Altman哦,我们刚刚提到埃隆表达了一系列看法。这里是我们的陈述,或者说不是我们的陈述。这是对事件经过的一个描述。我们试图不带入个人情绪,只是陈述,“这就是历史。”Lex Fridman我觉得 Elon 对你刚才提到的一点有些误解,也就是你们当时所面临的不确定性有多大。你们只是一帮小研究团队,疯狂地讨论着 AGI,而那时候,所有人都觉得这个想法很可笑。Sam AltmanElon 不久前还在疯狂地谈论发射火箭,那时候大家都对这个念头嗤之以鼻,所以我觉得他对这件事会有更多的共鸣。Lex Fridman我确实认为这里面有一些个人的因素。OpenAI 和这里的很多了不起的人决定与 Elon Musk 分道扬镳,因此存在一些个人层面的-Sam AltmanElon 选择了离开Lex Fridman你能具体说说吗?那种选择分道扬镳的情形?Sam Altman他觉得 OpenAI 快要失败了。他想要完全控制权来挽救局面。但我们想要继续沿着现在 OpenAI 所走的方向前进。他还想要特斯拉能够开展一个 AGI (人工通用智能)项目。他在不同时间点有过多种想法,包括把 OpenAI 变成一个他能控制的盈利性公司,或者是让它与特斯拉合并。我们并不同意这样做,于是他决定离开,这也挺好的。Lex Fridman所以你的意思是,正如那篇博客文章里提到的,他想要的是 OpenAI 能被特斯拉收购,或许是与微软的合作方式有点相似,或者说可能是一种更为戏剧化的形式。Sam Altman我的记忆里,那个提议就是这么回事,就是说,被特斯拉收购,然后让特斯拉完全掌控它。我很确定提议就是这个意思。Lex Fridman当时,Elon,OpenAI 中的 “open” 对你意味着什么?Ilya 在邮件往来中已经谈论过这个话题。那时候它对你意味着什么?现在又是怎样的意义呢?Sam Altman说到如果能带着一个“神谕”重来,我可能会选一个不同的名字。OpenAI 正在做的众多事情中,我认为最重要的就是免费地将强大技术交到人们手中,作为一项公共福利。我们不在我们的服务上投放广告——Sam Altman作为公共利益的一部分,我们没有在免费版本中投放广告,也没有通过其他途径来盈利。我们的出发点只是我们的使命 —— 免费为人们提供越来越强大的工具,并且让他们去使用。我觉得这样的开放对我们的愿景至关重要。如果我们能够提供优秀的工具,让人们学会使用,或者他们甚至可以自学成才,然后用这些工具为彼此打造一个美好的未来,这将是意义重大的。所以,如果我们能持续向世界提供免费或低成本的强大 AI 工具,这将极大地推进我们的使命。至于是否开源,嗯,我认为我们应该对一些东西开源,而对其他的则不必。这件事往往会变成一种信仰之争,很难保持中立,但我相信寻找平衡点才是正确的做法。Lex Fridman所以他就跟我说:“如果你们把名字改成 CloseAI ,我就撤销诉讼。” 我是说,难道这就要成为一个围绕名字的梗,在这片战场上互相对决了吗?Sam Altman我觉得这体现出 Elon 提起诉讼的严肃态度,说实话,这种说法真是让人吃惊。Lex Fridman你要是觉得我错了就纠正我,但我个人觉得这场官司在法律上并不算严重。它更多的是在向人们传递一个关于未来通用人工智能(AGI),以及目前在这个领域领先的公司的信息。Sam Altman看,我的意思是,在人们指出这样做有点伪善之前,Grok 是没有开源过任何东西的。然后,他宣布 Grok 将在本周开始开源一些东西。我认为对他来说,这件事并不仅仅是关于是否开源的问题。Lex Fridman嗯,我们会讨论一下开源和非开源的话题。我倒是觉得,批评一下竞争对手挺好的,适当地说点坏话也无妨。但这得是建立在友好竞争的基础上,比起来,我个人真是非常讨厌打官司。Sam Altman“看,我认为整个事情对于一个建造者来说是不应该的。我尊敬埃隆,他是我们时代最伟大的建造者之一。我知道他清楚地感受过被那些仇恨者攻击的滋味,这让我看到他这样做时更加感到悲哀。”Lex Fridman是的,他可以说是史上最杰出的创造者之一,甚至可能是有史以来最卓越的建设者。Sam Altman这让我感到悲伤。我觉得很多人也有同样的感受。一直以来,有那么多人仰慕他。我在某个访谈里说过,我怀念曾经的 Elon,结果收到了好多回信,他们都说:“你的话完全表达了我的心声。”Lex Fridman我觉得他就应该赢。他应该让 X Grok 打败 GPT,然后 GPT 又反过来打败 X Grok,就这样互相竞争,对大家来说都是一件美事。但说到开源的话题,你认为有很多公司在探索这个概念吗?这挺有意思的。我倒觉得 Meta 出乎意料地在这个领域走在了前面,或者至少在这场棋局中,它是第一个真正开放源码的。当然了,他们开源的并不是最尖端的模型,不过他们开源了 Lama。谷歌也在考虑开放一个规模较小的版本。开源有什么优缺点?你自己有没有思考过这个问题?Sam Altman是的,我确信开源模型绝对有其立足之地,尤其是那些人们可以在本地执行的体积较小的模型,这方面确实存在巨大的需求。我想未来会出现一些开源模型,也会有一些闭源模型。这一点上,它并不会与其他生态系统有所不同。Lex Fridman我听了所有关于这起诉讼和其他类似事情的播客。他们更加关注的是, 从非盈利到设定盈利上限这一变化所树立的先例对其他初创企业会有什么影响?这会是一个怎样的启发?Sam Altman我强烈不建议任何想要先作为一个非盈利组织起步,之后再加入盈利性分支的创业公司这么做。我真的非常不推荐这种方式。我觉得我们这里也不会创造这样一个先例。如果我们知道会发生什么,我们肯定也会那么做的。Lex Fridman嗯,理论上来说,如果你在这里的舞跳得够美,或许能享受到一些税收优惠之类的东西,但是……Sam Altman我觉得大部分人对这些事情的看法不是这样的。Lex Fridman如果你这样做,创业公司根本不可能省下一大笔钱。Sam Altman不,我觉得有些法律会让这件事变得相当棘手。Lex Fridman你期望与 Elon 之间的关系如何发展?这种紧张、这场对峙,你希望它会怎样?假如从现在起向前看1、2、3年,你和他在私人层面上的关系——像是友情、友好竞争,以及所有这些互动。Sam Altman是的,我非常尊敬 Elon,我希望在未来的岁月里,我们能保持一段友好的关系。Lex Fridman是的,我希望你们这个月能够保持友好的关系,一起在竞争中取得胜利,共同探讨这些有趣的理念。我猜会有些关于人才或其他方面的竞争吧,但关键是要保持友好竞争的氛围。就去创造一些酷炫的东西吧。埃隆在这方面确实很在行,你也不赖。Part 4:SoraLex Fridman讲到厉害的玩意儿,Sora 真的很吸引人。我有一百万个问题想问你。首先,它的确令人称奇,无论是在产品层次上,还是在哲学层次上。那么我就从技术/哲学的角度来提问吧,你认为它比如说相比于 GPT-4,在理解世界这方面是更胜一筹还是稍逊一筹呢?在训练这些补丁时,它对世界模型的理解与仅仅基于语言标记有什么不同吗?Sam Altman我觉得这些模型对世界模型的理解,实际上比我们多数人给予的认可要深。因为它们对某些事情的理解是如此的清晰明了,它们对其他事情的无知或错误就显得尤为突出,人们很容易一眼看穿它们的不足,然后说:“啊,这全是假的。” 但实际上并非全是假象。有些部分是有效的,有些部分则不然。我还记得第一次看 Sora 视频时的情景,你会看到有人走过来,挡住画面几秒钟后又走开,而被遮挡的东西依旧在那儿。我当时就想,“噢,这效果挺不错的。”或者,有时候,你能看到它展现出一系列动作中物理规律的那种精准,真的让人印象深刻。但说到底,这些模型只会越来越强大,这种进步还会继续。如果你关注一下从 DALL·E 1 到 2 再到 3,再到 Sora 的发展轨迹,会发现有很多人在每一个版本上都曾嘲讽,说它做不到这个,做不到那个,但现在看看它的表现吧。Lex Fridman嗯,你刚才提到的遮挡问题,其实就是要对世界的三维物理现象建模,而且要做得足够好,才能捕捉到这类情况。Sam Altman嗯……Lex Fridman你可以跟我说说,为了应对遮挡问题,世界模型需要做什么呢?Sam Altman我想说的是,它在处理遮挡方面表现得相当出色。而说它背后有一个很强大的三维世界模型,这个说法就有些牵强了。Lex Fridman但你觉得仅凭这些二维训练数据的方式就能达到那个目标吗?Sam Altman看起来这种方法能出乎意料地走得很远。我不太想去猜测它能克服哪些限制,哪些又不能,不过……Lex Fridman你发现了系统的哪些有趣局限性?我的意思是,你分享过一些挺有趣的例子。Sam Altman有各种各样的有趣现象。比如,视频中的猫咪在任意位置突然长出一条额外的肢体。你可以随意挑选,但现在仍然存在许多问题,有很多弱点。Lex Fridman你觉得这是这种方法根本上的缺陷呢,还是说只要有更大的模型、更细致的技术处理或者更高质量、更多量的数据,就能解决“猫发芽”这类问题?Sam Altman我对这两点都持肯定态度。我认为这种方法给人的感觉与我们通常的思考和学习方式大相径庭。同时,我也相信随着规模的增加,它的效果会进一步提升。Lex Fridman就像我提到的,LLMS 有 token,文本 token,而 Sora 则有视觉 patch。它把所有的视觉数据,包括各种不同的视频和图片,都转换成了 patch。训练过程可以说完全是自监督的吗?还是会涉及到一些手动标注的工作?在整个过程中,人的参与程度是怎样的?Sam Altman我是说,不详细谈论 Sora 的方法,我们的工作就已经利用了大量的人类数据。Lex Fridman但不是互联网级别的数据量吗?这就意味着需要大量的人力。Sam,\"大量\"这个词可不简单。Sam Altman我觉得在这种情况下用“很多”这个词挺合适的。Lex Fridman因为对我来说,“很多”嘛……你听我说,我是个内向的人,要是和三个人一起出去,对我来说人就已经够多的了。要是四个人,那简直就是超负荷了。不过我猜你指的“很多”可能是比这……Sam Altman对,确实是有不止三个人在给这些模型做数据标注工作。Lex Fridman好的,对。但归根到底,有大量的自监督学习。就像你在技术报告里提到的,我们处理的是互联网规模的数据。这实在太美妙了……它就像诗。也就是说,这些数据并非由人工标注,可以认为是以这种方式自监督的吗?Sam Altman嗯,对。Lex Fridman然后问题在于,互联网上到底有多少数据可以用于这种自我监督学习的方式,只要我们能弄清楚自我监督的具体细节。你有没有考虑过,更进一步公开这些细节?Sam Altman我们有的。你是特指信息的来源吗?Lex Fridman出处特别指出。因为很有趣,那些让语言模型如此神奇的元素现在能否开始转向视觉数据呢?而这一过程需要怎么做呢?Sam Altman我感觉是这样没错,不过我们还得加把劲,干更多的活儿。Lex Fridman当你这么问的时候,是在担心些什么呢?为什么会对发布这个系统感到忧虑?可能会有哪些潜在危险?Sam Altman我是说,坦白讲,在发布系统之前,我们必须确保它的效率达到人们期望的规模,这样才能确保系统能够正常工作,这一点我不想轻描淡写。在这方面还有大量的工作需要完成。但你可以想象到,像深度伪造、错误信息这样的问题。我们试图作为一家深思熟虑的公司去思考我们推向世界的产品,你不用费太多心思就能想到这些事情可能怎么走向不好的方向。Lex Fridman在这里我们面临很多棘手的问题,你所处的领域非常艰难。你觉得按照版权法,训练人工智能算不算公平使用呢?Sam Altman我觉得这个问题的底层问题是,创造有价值数据的人们是否应该得到某种形式的经济补偿,因为他们的数据被利用了。我认为答案是肯定的。我目前还不清楚具体的解决方案是什么。人们提出了各种各样的点子,我们也尝试过一些不同的模式。但打个比方,如果我是一位艺术家,A,我会希望有选项可以让别人不使用我的风格来创作艺术作品。而且,B,如果别人确实用了我的风格来创作,我希望这背后能有一套经济模式来确保我的利益得到体现。Lex Fridman是的,就像是从 CD 到 Napster,再到 Spotify 的那种转变。我们得找出一种可行的模式。Sam Altman模型会变,但人们得拿到钱。Lex Fridman好吧,如果我们把视角再拉得更远一些,应该有某种动力激励人类继续去做那些牛逼的事儿。Sam Altman在我所担心的一切中,我相信人类会创造出非常酷的东西,并且社会终将以某种方式来奖励这些创造。这似乎已经深植于我们的本性之中。我们渴望创造,我们渴望证明自己的价值,我们希望以各种方式来获取认同和地位。我认为,这些特质是不会消逝的。Lex Fridman但回报可能不是金钱上的利益,而可能是名望或是对其它酷事的认可和赞誉。Sam Altman也许在金融方面还有其他方式。我再次强调,我认为我们还未见到经济系统发展的最终模式。Lex Fridman是的,不过艺术家和创作者们都挺担心的。当他们看到 Sora,他们就会惊呼,“我的天哪。”Sam Altman艺术家们在摄影问世的时候也是非常忧心忡忡的,后来摄影却演变成了一种全新的艺术形式,有人通过摄影赚到了大钱。我相信类似的事情还会不断上演。人们会不断地用新工具探索新的创作方式。Lex Fridman如果我们只是随便在 YouTube 或者类似的平台上搜一搜,你觉得在接下来的五年里,会有多少内容是由类似 Sora 这样的 AI 生成的呢?Sam Altman人们总是在讨论,五年内人工智能会取代多少工作岗位。他们的出发点通常是,目前的工作中有多大比例会完全被人工智能所替代?但我个人的看法并不是围绕人工智能会做多少份工作,而是在未来某个时间点,它们能执行多少种任务。想一想,经济活动中的每五秒钟、五分钟、五小时乃至五天的任务,有多少是人工智能可以完成的?我认为,这个问题比单纯问人工智能能取代多少工作要更加有意义、影响深远和重要。因为人工智能是一个工具,它将在不断延长的时间跨度内、以越来越高的复杂度来执行越来越多的任务,这让人类能够在更高层次上进行抽象思考。也就是说,人们在自己的工作中可能会变得更加高效。而这种变化,随着时间的推移,不仅仅是量的改变,它还意味着质的变化——我们能在脑海中构思何种问题。对于 YouTube 上的视频,我觉得情况也是如此。很多视频,或许是大多数视频,在制作过程中会运用到人工智能工具,但它们的核心仍然是由人来思考、构思、负责部分执行,并指导整个项目的运作。Lex Fridman是的,这真的非常有趣。我是说,这确实有点吓人,但去想象这一点真的很吸引人。我倾向于认为,人类喜欢观察其他人类或者说其他有人性的生物——Sam Altman人们真的很在乎彼此。Lex Fridman是的,如果出现了比人类还酷、还厉害的东西,人们可能会关注两天,但之后他们又会回归去关心人类的事务。Sam Altman这看起来似乎是根深蒂固的。Lex Fridman这就是围绕棋局的整个问题,“哦,是的”,但现在我们还是得继续下棋。咱们得视而不见那个摆在眼前的事实:比起人工智能系统,人类下棋实在是太菜了。Sam Altman我们还是会开赛车,而且现在的车速比以前快多了。我的意思是这样的例子有很多。Lex Fridman是的,或许它就类似于 Adobe 套件里的一种工具,能够大大简化视频制作这些流程。听着,我真的不喜欢站在镜头前。如果我能想出一个办法避免露面,我会非常乐意的。不过不幸的是,这可能还需要一段时间。现在我们正在研究生成面部图像的技术,虽然进展顺利,但要在视频中生成特定人物而非通用面孔,这个过程还是挺棘手的。Part 5:GPT-4Lex Fridman让我来问问你 GPT-4 的事情。问题真的好多。首先,它同样令人惊叹。回头看,GPT-3、GPT-5 和 GPT-4 这几个版本很可能会被认为是历史性的转折点,这些版本塑造了 ChatGPT。Sam Altman可能第五次会成为转折点。我不确定。往前看,这真的很难说。Lex Fridman我们永远也预测不了。这就是关于未来最让人头疼的事,太难以预测了。但是对我个人而言,回顾历史,GPT-4 和 ChatGPT 实在是太让人震惊了,它们在历史上都留下了深刻的烙印。那么,请允许我问你,你认为 GPT-4 和 GPT-4 Turbo 最令人印象深刻的能力有哪些?Sam Altman我觉得这挺糟心的。Lex Fridman人呐,也是这样,很快就会习惯一件棒极了的东西。Sam Altman不,我认为这确实是一件非凡的事情,但与我们所要实现的目标和我坚信我们最终能够达成的境界相比,在 GPT-3 面世那会儿,人们都说:“哦,这太令人惊叹了,简直是技术的奇迹。”的确,当时它非常了不起。但现在出现了 GPT-4,再回头看看 GPT-3,你就会觉得:“天哪,这简直糟糕透了。”我预计 GPT-5 和 GPT-4 之间的差距将和 GPT-4 与 GPT-3 的差距一样大。我们的职责就是要有领先的视野,记得我们现在拥有的工具回头看来可能会显得相当逊色,正是这种认知驱使我们确保未来变得更加美好。Lex FridmanGPT-4 在哪些方面最让人失望?我的意思是——Sam Altman它最擅长做些什么呢?Lex Fridman它能做到的最棒的事情是什么呢?而这些事情的局限性又在哪里,让你会觉得它很差,因此又让你对未来充满了启迪和期望呢?Sam Altman我最近更多地把它当作一种头脑风暴的搭档。Lex Fridman是的。Sam Altman它有一丝令人震惊的神奇。当人们谈起它的作用时,他们会说:“哦,它帮我提高了编程效率。它让我的写作速度更快、质量更好。它能帮我将一种语言转换成另一种。”所有这些都令人称奇,但它在创意头脑风暴方面的表现——比如,“我得给这个东西取个名字。我需要换个角度思考这个问题。我不确定接下来该怎么办”——我认为这展现了一丝令我期待已久的东西,希望将来能看到更多这样的场景。你能略见一斑的是,当我帮助处理一些长远的任务,把它们拆解成多个步骤,然后执行其中几个,或许是上网搜索资料,或是编程之类的活儿。这个过程要是能成功,虽然并不常见,但确实感觉挺神奇的。Lex Fridman与人不断地来回交流,对我来说非常有帮助。你指的是什么-Sam Altman经过不断的反复与人类沟通,当它能够独立完成一个包含 10 个步骤的问题时,这样的互动就会变得更加密集。Lex Fridman哦。Sam Altman这通常不太常见,偶尔会有。Lex Fridman增加多层次的抽象,还是你的意思只是依次进行的?Sam Altman两者都很重要,既要把问题分解,也要在不同的抽象层面上进行思考,然后将这些思考重新组合起来。你看,我并不是想小看 GPT-4 所取得的成就,但同时我也不想过分夸大其重要性。我认为,我们正处于一个指数增长的曲线上,不久之后,我们会像现在回望 GPT-3 一样去回顾 GPT-4。Lex Fridman这么说吧,我是说 ChatGPT 成了一个转折点,外界开始逐渐相信 OpenAI 内部已经有了一种信念的高涨。Sam Altman当然可以。Lex Fridman或许这儿有些信徒,但是当你想起——Sam Altman在这方面,我真的觉得这将是一个转折点,让全世界许多人从怀疑变成了信服。这更多的是和 ChatGPT 的界面有关。说到界面和产品,我的意思还包括了模型的后续训练过程,以及我们如何调优使它对你更有帮助,以及怎样使用它,而不只是底层模型本身。Lex Fridman这些因素中每一个到底有多重要呢?无论是底层模型还是 RLHF,又或者是其他的什么机制,它们都在调优过程中起着关键作用,让这个系统对于人类来说更具吸引力,使用起来更高效、更富有成效。Sam Altman我是说,它们都极为重要。但是 RLHF,也就是训练后的那个步骤,我们在基础模型之上进行的那些额外工作——尽管这背后需要巨大的工作量——却是至关重要的,更不用提我们围绕它打造的产品了。在某种意义上来说,我们的确需要同时做好两件事情:一是发明底层技术,二是搞清楚如何把它转化成人们爱不释手的产品。这不仅仅关乎产品本身的实际工作,还涉及到一个完全不同的阶段——怎样让产品与用户的需求保持一致,并真正发挥出它的用途。Lex Fridman你是如何做到让众多用户能够同时使用这项技术的规模化效应。所有这些方面,都得仔细斟酌。Sam Altman这个嘛,但那确实是个大家都知道的难题。我们明白我们必须要扩大它的规模。我们得完成两项前所未有的任务,我得说这两个任务都是非常了不起的成就,之后还有很多像规模扩大这样其他公司之前也经历过的挑战。Lex Fridman在 GPT-4 和 GPT-4 Turbo 之间,将上下文窗口从 8K 令牌增加到 128K 令牌,会有什么样的区别呢?Sam Altman大部分情况下,人们并不总是需要128这么长的上下文。虽然若我们将目光投向遥远的未来,我们可能会有几十亿的上下文长度。你可以输入你所有的信息,你的整个历史记录,它将逐渐更深入地了解你,那会非常棒。但是就目前的情况来看,人们使用这些模型的方式并不是这样的。有时候,人们可能会在一篇论文中贴上大量的代码库,不过,大多数时候模型的使用并不涉及长时间的上下文。Lex Fridman我喜欢这种感觉,就像是你的 “我有一个梦想” 演说。有朝一日,你会被依据你性格的全貌或是你一生的总体来评价。这很有意思。那么,你所期望的扩展的一部分,就是一个越来越全面的背景环境了。Sam Altman我记得看过一段网络视频,数字可能记错了,但是内容大致是比尔·盖茨在谈论一款早期电脑的内存容量,可能是 64K,也许是 640K 之类的。那时候,大多数内存都被用作屏幕的缓冲区。他当时似乎无法真正理解,为什么未来的世界会需要计算机有几个 GB 甚至 TB 的内存。不过实际上,你总是要跟上技术发展的指数级曲线,我们总会找出利用更先进技术的方法。所以,我现在真的很难想象,未来有一天,上下文链接扩散到十亿设备的情景会是怎样的。它们可能不会真的达到那个数字,但在效果上可能会有那种感觉。不过我知道,一旦我们拥有了这种技术,就绝不会想要回到没有它的日子。Lex Fridman是的,即便是现在说十年后可能是数十亿的规模,也可能显得很愚蠢,因为到那时它可能已经达到了数以万亿计的规模。Sam Altman当然Lex Fridman将会出现一些使人感觉像是拥有无限上下文的突破性进展。不过即便是 120 字符,老实讲,我也没尝试过把它推到那个极限。可能的用例包括输入整本书或书的某些部分,比如论文之类的。你见过 GPT-4 有哪些有趣的应用场景吗?Sam Altman我最感兴趣的不是任何我们可以讨论的具体应用案例,而是那些将其作为任何知识工作任务的默认起点的人,特别是年轻人。令人瞩目的是它在很多方面都能做得相当不错。你可以使用 GPT-V 来帮助你编写代码,进行搜索,或者编辑论文。对我来说,最有意思的是那些直接以此为他们工作流程开端的人。Lex Fridman我对很多事情也有同样的兴趣。我用它作为读书的伙伴,它帮助我思考,尤其是当我阅读那些经典名著的时候。这方面,它写得真的很出色。我发现它在讨论那些资料丰富的话题时通常比维基百科还要好。它某种程度上更加均衡、更具细节。或许这只是我的个人感受,但它激发我进行比阅读维基百科条目更深层次的思考。我不完全确定为什么会这样。你刚才提到了这种协作。我不确定魔法究竟在哪里——是在这儿、在那儿,还是在中间某处。这一点我还真不敢确定。但有个问题一直让我担心,那就是当我开始用 GPT 处理知识性任务时,我通常得事后去核实事实,比如检查它有没有编造一些假消息。你是怎么发现 GPT 能编出那些听起来特别有说服力的假信息的呢?你又是如何确保它所提供的信息是真实的?Sam Altman这显然是我们极其关注的一个领域。我觉得随着即将推出的新版本,情况会有很大的改善,但我们仍需持续努力,今年是不可能完全解决所有问题的。Lex Fridman确实可怕,因为随着技术越来越好,我们越发不去做事实核对了,对吧?Sam Altman我在这个问题上有点矛盾。我觉得人们使用技术的能力,其实比我们通常认为的要高明多了。人们似乎已经真正理解了 GPT,还有这些模型有时候会出现错误信息。如果是关乎重大任务的事情,你就必须得核实一下。Lex Fridman除此之外,记者们好像并没有意识到这点。我看到有些记者只是敷衍了事地用GPT-4。这个-Sam Altman我有好长一串想要吐槽记者的事,但这个问题并不排在我的批评名单之首。Lex Fridman嗯,我认为更大的批评可能是记者所面临的压力和激励机制,这使得他们不得不工作得非常迅速,而采用这种方法无疑是捷径。我真心希望我们的社会能够鼓励像……Sam Altman我也是。Lex Fridman……像是那些需要数天乃至数周辛勤努力才能产出的深度新闻报道。还有,有些报道以一种平衡的方式来呈现新闻,它们在批评的同时也能够赞扬他人,虽然通常都是那些批评性质的内容吸引点击。而捏造事实、标题党也能轻易地获得点击量。我敢肯定,一定有不少人讽刺地说:“嗯,所有那些充满戏剧性的东西肯定带来了大量点击。”Sam Altman可能吧。Part 6:记忆与隐私Lex Fridman这是关于人类文明的一个宏观问题,我非常想要探讨一下。这正是我们应该更多地去庆祝的领域。你给 ChatGPT 赋予了拥有记忆的能力,你一直在尝试处理它与过往对话的记忆问题。同时,你还让它能够关闭记忆功能。有时候我真希望我也能做到这一点——根据需要打开或关闭记忆。我猜有时酒精似乎能起到这个效果,不过我觉得它并不是最理想的方法。你在这方面有什么发现吗?比如尝试记住对话或者选择不记住这种想法的时候。Sam Altman我们目前在这个领域的探索还只是刚刚开始,但我觉得人们想要的,至少我个人想要的,是一个能够逐渐认识我并且随着时间的推移越来越有帮助的模型。这还仅仅是个起点。我认为我们还有很多其他的事情需要去做,但这正是我们想要追求的目标。你会期望使用一个模型,在你的一生中或是在你使用一个系统的过程中,它可能包含了多个模型,它们会随着时间的积累变得越来越优秀。Lex Fridman是啊,解决这个问题有多困难?因为目前为止它更多的是记住一些琐碎的小知识点和个人喜好等等。但是关于记忆这块怎么样呢?你难道不希望 GPT 能记得你在十一月里经历的所有麻烦和所有的那些波折,然后你就可以——Sam Altman嗯,对,对。Lex Fridman因为现在你显然有些在回避它。Sam Altman我不仅仅希望它记得这些东西,我还想要它能整合这些经验教训,并且在将来提醒我应该如何不同地行动,或者有什么需要留意的地方。我们每个人的一生中,都在不同程度上从经验中受益,我希望我的 AI 代理也能跟随这样的经验成长。想象一下,如果我们回溯并且假设有数万亿的上下文长度可供利用,如果我能把我这一生中与任何人的每一次对话都放进去,把所有的邮件往来都输入输出进上下文窗口,每当我提出问题时都能调用这些信息,那将是非常酷的一件事。Lex Fridman是的,我觉得那会非常酷。不过有时候,当人们听说这个想法时,会对隐私感到担忧。你怎么看待这个问题?随着 AI 变得更加强大,它确实需要整合你所有的经历和数据才能给出建议。Sam Altman我觉得答案很简单,就是给用户选择的权力。任何我想从我的 AI 代理那里删除的记录,我都希望能够自由删掉。如果我不想记得什么事情,我也应该可以选择忘记。在我们自己的 AI 的隐私与效用之间的权衡问题上,你和我可能有各自不同的见解。Sam Altman…对于 OpenAI 在隐私与实用性之间如何权衡,大家有不同的意见,这是很正常的。但我觉得解决方法很直接,就是让用户来做选择。Lex Fridman但公司应该对用户的选择有较高程度的透明度。因为以往有些公司在收集用户数据时态度含糊其辞,好像默许自己可以搜集所有数据似的,他们会说:“嗯,我们收集你的所有数据是理所当然的。我们用这些数据来做广告等,都是出于好意。” 但他们对这些细节并不透明。Sam Altman这绝对没错。你刚才提到,我在刻意回避那些 11 月发生的事。Lex Fridman只是逗你玩。Sam Altman嗯,我的意思是,我经历了一件极其创伤的事,这件事确实使我长时间无法动弹。在那段艰难的时光里,最难的工作就是要坚持不懈地继续下去,因为我必须在处于震惊和疼痛中的时候回到这里,努力把事情的碎片一点点拼凑起来,而那时候似乎没有人真正关心。我的团队确实给了我一些宽容,我也没有发挥出我平时的工作水平。但确实有那么一段时间,要同时处理这两件事真的很困难。不过,有一天早上我醒来,想到:“这确实是我遭遇的一件恐怖的事情。我可以选择永远把自己视为受害者,或者我可以告诉自己这是我一生中触及的最重要的工作,我必须回过神来继续它。”这并不意味着我在压抑自己的感受,因为有时候我会在半夜醒来,脑海里依旧会回想起那些事情,但我确实感到我有义务要持续向前走。Lex Fridman这么说真是妙不可言,不过可能还有些隐性的问题存在。我比较担心的是你提到的那种信任问题,担心人们变得过于多疑,而不是天真地信任每一个人或者大部分人,凭借直觉去判断。这确实是一场复杂微妙的平衡之舞。Sam Altman当然可以。Lex Fridman我的意思是,我在兼职时做了一些深入探究,特别是研究了泽连斯基政府和普京政府,以及他们在战时高压环境下的种种互动。结果就是彼此之间产生了不信任,大家都开始孤立自己,对世界的看法也变得不清晰了。这是所有人都会关心的问题。你看上去似乎游刃有余,从中吸取了宝贵的教训,感受到爱,并让这份爱激励着你,这很了不起,不过这种感觉可能还会残留心间。我有一些问题想问问你,关于你直觉上认为 GPT 能做什么、不能做什么。GPT 在生成每个 token 时,似乎会分配大约相同的计算资源。那么,在这种方式中,是否有空间给予更缓慢、更连贯的思考呢?Sam Altman我觉得会有一种新的思考模式出现。Lex Fridman它在架构上会和我们目前看到的 LLMs 相似吗?它是不是在 LLMs 基础上增加的一层?Sam Altman我能想象出不少实施这个想法的方法。不过,我认为那并不像你想要探讨的问题那么重要。你的问题是,我们是否需要一种较慢的思考模式,这种模式下,答案不需要那么迅速地得出……可以这么说,从一种精神层面上讲,你希望一个人工智能能够在面对更复杂的问题时投入更多思考,而在遇到简单问题时则能够更快地给出答案。我觉得这点很关键。Lex Fridman这是不是人类的一个常有的想法,我们就应该去努力思考?这种直觉是不是有误呢?Sam Altman我觉得这个直觉挺有道理的。Lex Fridman有趣。那么,一旦 GPT 升级到比如 GPT-7 这样的级别,它就能瞬间找出“费马定理的证明”了是吗?Sam Altman你好像是想能为那些更难的问题分配更多的计算能力。我想,如果你问这样一个系统,“证明一下费马大定理”,和问“今天是什么日期?”相比,除非它已经知道并且记住了证明的答案,要不然它得自己去琢磨出来,这看起来肯定是需要更多计算资源的。Lex Fridman但它能不能看起来基本上就像一个 LLM 在自言自语,是那种感觉?Sam Altman或许吧。我的意思是,你能想象出很多可能有效的事情。但关于怎么做才是最合适或者最好的方式,我们目前还不清楚。Part 7:Q*Lex Fridman这让我想起了 Q* 背后那些充满神秘色彩的传说。这个神秘兮兮的 Q* 项目究竟是什么呢?它也在同一座核设施里面吗?Sam Altman没有核能设施。Lex Fridman嗯,拥有核设施的人总是这么说。Sam Altman我特别希望拥有一个秘密设施,可惜并没有这么一回事。Lex Fridman好的,没问题。Sam Altman也许吧,总有一天。Lex Fridman有一天吧?好吧。人总得有点儿梦想,不是吗?Sam AltmanOpenAI 并不擅长保守秘密。如果我们能够做到的话,那就太好了。我们一直受到很多泄密事件的困扰,真希望我们能有这样的本事。Lex Fridman能谈谈 Q* 是什么吗?Sam Altman我们还没准备好讨论那个话题。Lex Fridman看,但这样的回答意味着我们有东西可以聊了。这很神秘,Sam。Sam Altman我是说,我们涉猎的研究领域五花八门。我们之前已经提过,我们认为增强这些系统的推理能力是一个重要的发展方向,是我们很想深入探索的。到目前为止我们还没彻底攻克这个难题,但我们对此充满了极大的兴趣。Lex Fridman会有类似 ChatGPT 那样的飞跃性突破,或者其他类似的重大进展吗?Sam Altman这个问题问得好。我怎么看这个问题呢?挺有意思的。对我来说,这整个过程看起来都是相当连贯的。Lex Fridman没错。你所谈到的,似乎是一个主题,那就是你们基本上是在沿着一个指数曲线逐步攀升。但从旁观者,也就是我这个角度来看,好像确实能感觉到有些跳跃性的进展。不过在你眼里,这些并不存在吗?Sam Altman我真的在思考,我们是否该……一个重要的原因是,我们采用所谓的迭代部署方式,而不是秘密开发到 GPT-5,我们决定公开谈论 GPT-1、2、3 和 4。部分原因在于我觉得人工智能与意外这两者不应该搭界。而且,无论是世界、人类、机构,或者你愿意怎么称呼它们,它们都需要时间去适应和反思这些问题。我认为 OpenAI 最明智的举措之一就是采取了这样的策略,我们让全世界都关注这一进程,正视 AGI 的重要性,考虑在我们陷入紧迫境地、不得不匆忙作出决策之前,我们需要建立什么样的系统、结构和治理模式。我觉得这样做非常棒。但是,像你和其他人还能感受到这些巨大飞跃的事实,让我想,或许我们应该更加渐进地发布我们的产品。我现在还不确定这究竟意味着什么,也没有现成的答案,但我们的目标绝不是给世界带来令人震惊的更新,恰恰相反。Lex Fridman当然,能够做得更迭代会非常棒。我觉得这样对每个人都是一件美好的事。Sam Altman但这正是我们所致力于的目标,也是我们公开宣布的策略。我觉得我们在某种程度上没能达标。也许我们应该考虑换个方式来发布 GPT-5 或类似的产品。Lex Fridman比如用版本号4.71、4.72?人们通常都喜欢庆祝特别的日子,比如生日。我不确定你对人类了解多少,但他们会庆祝这些重要的时刻和里程碑。Sam Altman我确实认识一些人类。人们确实对里程碑情有独钟。这点我完全能理解。我认为我们自己其实也挺喜欢里程碑的。能够宣布某件事情取得了胜利,然后迈向下一个目标,这感觉真的很棒。但确实,我感觉我们在某些方面可能理解错了。Part 8:GPT-5Lex FridmanGPT-5 什么时候会推出呢?Sam Altman我不知道,说实话。Lex Fridman哦,这回答挺实诚的。如果是今年的话,眨两下眼。Sam Altman我们今年会推出一个非常棒的新模型。我还不确定我们最后会叫它什么名字。Lex Fridman这就引出了一个问题:我们该怎样发布这个东西呢?Sam Altman在接下来的几个月里,我们将推出许多不同的东西。我觉得这会非常酷。在我们开始谈论像 GPT-5 这样的模型——不管它最终叫不叫这个名字,或者是比你所期待的 GPT-5 略逊一筹还是略胜一筹之前,我认为我们有一系列其他重要的产品需要优先发布。Lex Fridman我真不知道对 GPT-5 应该有什么样的期待。你这么一说,我感到又紧张又兴奋。不管它最后被叫做什么,咱们就暂且称它为 GPT-5 吧,它需要克服哪些最大的挑战和障碍呢?我觉得这个问题很有意思。是关于计算能力的问题吗?还是技术层面的呢?Sam Altman这总是涉及到所有这些因素。你知道,关键的突破因素是什么?是更大的计算机吗?是一个新的秘诀吗?还是别的什么东西?其实这些要素都是相互关联的。我认为 OpenAI 做得特别出色的一点是……这实际上是伊利亚最初的话,我可能会说得不是很准确,但意思大概是,“我们把 200 个中等规模的因素相互结合,创造出了一件巨大的作品。”Lex Fridman那么这就是一种分布式的、持续不断的创新过程?Sam Altman嗯,对。Lex Fridman所以连在技术层面上也是这样?Sam Altman尤其是在技术层面上。Lex Fridman那么连具体的做法也包括在内吗?Sam Altman嗯,对。Lex Fridman你是如何深入到每一个细节的……在涉及不同、各自独立的团队时,这种工作方式如何运作?中等大小的项目怎样才能汇聚成一个庞大的整体,就像变形金刚一样?Sam Altman有些人得去思考怎样把所有事情综合起来,但也有很多人尽量试着把大局都记在脑子里。Lex Fridman哦,也就是说,个别团队中的成员会尽力维护对整体大局的关注?Sam Altman在高层面上,是这样的。当然你无法精确知晓每个部分是如何工作的,但我普遍认为,有时候拉远镜头、审视全局是非常有帮助的。这一点不仅适用于技术问题,对于商业创新同样有效。有时事情会以意想不到的方式汇聚在一起,而对整个画面的理解,即便你大多数时间都在某一领域里钻研,最终也能带来出人意料的洞见。实际上,我过去有一个非常宝贵的东西,那就是对科技行业所有或大多数前沿领域都有一个清晰的地图。有时候,我能看到这些连接或新的可能性,如果我只是深耕于某一领域,我可能就不会有这样的想法,因为我缺少全面的数据。而现在我已经不太拥有那样的视角了,我现在深入某一个特定领域。但我知道,拥有全局视角是非常宝贵的。Lex Fridman你已经不是以前的那个 Sam 了。Sam Altman现在的工作跟我以前的可大不一样了。Part 9:7万亿美元的投资Lex Fridman谈到从宏观角度看问题,咱们再扩大点范围,聊聊你说过的另一件既俏皮又可能颇有深意的事儿。你发推特说咱们需要 7 万亿美元。Sam Altman我没有在推特上发过那种内容。我从来没说过诸如“我们要募集7万亿美元”之类的话。Lex Fridman哦,那是另一个人?Sam Altman嗯,对。Lex Fridman哦,但你说过,“管他的,或许是 8 万亿”,是这样吗?Sam Altman好的,我就想说一下,世界上确实存在着很多错误信息。Lex Fridman哦,你这是在开玩笑呢。不过说真的,虽然是误传,里面可能还是有点道理的。Sam Altman看,我认为计算能力将会成为未来的'货币'。我相信它可能会变成世界上最宝贵的资源,并且我认为我们应该大规模地投资以生产更多的计算能力。计算能力,我觉得它会是一个独特的市场。人们通常考虑的是手机芯片这样的市场。你可以想象,全球有 80 亿人口,可能有 70 亿人拥有手机,或许是 60 亿,我们就这么假设吧。他们每两年换一次手机,所以每年的市场需求就是 30 亿套手机系统芯片。但如果你生产了 300 亿套,你也不可能卖出去 10 倍的手机数量,因为大多数人只会用一部手机。”但计算的情况有所不同,智能可能会更像能源那样,我们唯一需要讨论的是,在价格 X 的条件下,全世界会用掉多少计算资源,在价格 Y 的条件下又会用掉多少。因为如果计算资源真的很便宜,我可能就会让它全天候地帮我阅读电子邮件,给我提建议,关于我可能需要思考或处理的事情,甚至是尝试治疗癌症。但如果计算资源非常昂贵,那么我可能只会在尝试治疗癌症时才使用它,或者我们大家都仅在这种情况下使用它。因此,我认为世界将需要巨量的计算能力。而在这个过程中,有许多难点。能源问题是最为棘手的,建造数据中心同样充满挑战,供应链问题也不容忽视,当然了,制造足够的芯片也是一个硬骨头。但看起来,这正是事情发展的方向。我们将会渴求一种计算能力,目前来说,这种规模是难以想象的。Lex Fridman你是怎样解决能源难题的?核能?Sam Altman这就是我相信的。Lex Fridman…聚变?Sam Altman这就是我相信的。Lex Fridman核聚变吗?Sam Altman嗯,对。Lex Fridman谁能解决这个问题?Sam Altman我觉得 Helion 在这方面做得最棒,但我对当前的核聚变竞赛感到挺兴奋的。核裂变同样令人赞叹,我希望全球能够再次拥抱它。核裂变的历史进程对我来说真的很令人感到遗憾,我希望我们能以更有意义的方式,重新投身其中。Lex Fridman所以你认为,核裂变是拼凑这个谜题的一部分吗?比如说,就像我们现在已经在使用的那些核反应堆?还有很多人都因为像切尔诺贝利那样的事故而感到非常害怕,对吗?Sam Altman嗯,我认为我们应该建造新的反应堆。我真的觉得那个行业陷入停顿真是太可惜了。Lex Fridman你是认为“群体性歇斯底里”能解释这种停滞现象吗?Sam Altman嗯,对。Lex Fridman我不确定你对人类有多了解,但这正是其中一个风险。核裂变面临的安全威胁之一就是人类对此的深度恐惧。我们必须把这一点考虑进去,这就意味着我们得说服人们,向他们展示其实它有多安全。Sam Altman我对人工智能的前景有些担心。我觉得在人工智能的发展过程中,某些方面可能会戏剧性地出错。虽然我不确定我最终被枪击的概率有多大,但肯定不是零。Lex Fridman哦,我们想要防止这种情况——Sam Altman也可能是吧。Lex Fridman你怎样才能减少其中的戏剧化成分?我已经开始感受到一些波动,因为我确实与各个政治派别的人都有交流,感觉到人工智能将变得政治化的迹象。这真的让我担忧,因为到时可能会演变成右翼反对人工智能,左翼支持人工智能,因为人工智能能够造福人民,或者不管是哪种说辞和设定。这一点真的令人担心。到头来,人工智能的戏剧化效果可能会被充分放大。你打算如何应对这种情况?Sam Altman我觉得它最终会被左右两派的对立卷入纷争中。我无法确切知道最终会演变成什么样,但不幸的是,任何具有重要性的事物似乎都会如此。至于我之前所说的“戏剧性风险”,我的意思是虽然人工智能将带来巨大的好处,我相信这些好处将远超过坏处,但它确实也会有一些坏处,其中有些坏处虽然严重,却并不具戏剧性。比如,因空气污染死亡的人远比核反应堆造成的死亡人数要多。但大多数人更担忧住在一个核反应堆附近,而不是一个煤炭发电厂附近。这种心理机制很奇怪,尽管我们需要面临许多不同种类的风险,但那些足以成为电影高潮戏份的风险,在我们心中占据的分量要远重于那些持续时间长、但危害累积过程缓慢的风险。Lex Fridman这就是为什么真相至关重要。我希望人工智能能够帮助我们认清事物的本质,达到一种平衡,弄清楚世界上事物实际的风险和危险究竟是什么。在这个领域里,与谷歌、Meta、xAI 以及其它公司竞争,各有什么优劣之处呢?Sam Altman我觉得我对这个问题有个挺直截了当的回答,也许以后我能想到更多微妙的地方,不过优势是显而易见的,那就是我们能够以更快更便宜的方式得到更优质的产品和更多的创新,还有所有竞争带来的好处。而缺点嘛,如果我们不留神的话,我担心这可能会导致军备竞赛式的激增。Lex Fridman你感受到那种军备竞赛的压力了吗?就是那种带有一些负面影响的压力。Sam Altman当然,在某些方面肯定是这样的。我们讨论了很多关于需要将安全放在首位的话题。长久以来,我一直认为可以将 AGI 开始的时间分为四个象限:慢起步的短时间线、长时间线,以及快起步的短时间线、快起步的长时间线。我觉得短时间线搭配慢起步是最安全的组合,也是我最希望我们能处于的状态。但我确实很希望能确保我们实现一个慢起步。Lex Fridman我对 Elon 有点疑虑:大家往往形成了各自为阵的孤岛,而不是在安全问题上齐心协力。人们倾向于走向封闭、独立的方向。或许,采取开源模式会是个不错的选择。Sam AltmanElon 至少说过,他非常关注 AI 安全问题,而且确实对此很是担心,我猜他应该不会去做一些不安全的竞争。Lex Fridman是的。但我认为,在这方面的合作对大家都真的有好处。Sam Altman这并不是他最为人所知的事情。Lex Fridman嗯,他因为关心人类而出名,而人类是从合作中受益的。所以,在激励和动机上总会有一些张力。但到最后,我还是希望人类能够占上风。Sam Altman我前几天想起来,有人跟我提到那天他成为世界首富,超过了杰夫·贝索斯,他还在推特上给贝索斯发了个银牌的表情。我真心希望,当人们开始致力于研发 AGI —— 通用人工智能时,我们能少一些这样的闹剧。Lex Fridman我同意。我觉得埃隆是个朋友,他是一个很棒的人,也是历史上最重要的人物之一。那些言论可不怎么样。Sam Altman埃隆身上有些特质真的很了不起,我超级尊敬他。我觉得我们都需要他。我们每个人都应该为他加油,希望他在下一阶段能够挺身而出,担起领袖的责任。Lex Fridman是的。我希望他能拥有一样,而不受另一样的影响。但有时候,人类就是有缺陷、复杂多变,还有种种其他情况。Sam Altman历史上涌现出了许多非常杰出的领导者。Part 10:Google和GeminiLex Fridman是的,我们每个人都可以变成自己最好的版本,并且应当努力去做到这一点。我想问你,谷歌借助搜索功能,在过去的 20 年里已经成为了一个领头羊。可以说,在全球范围内获取信息的方式、人们的互动方式等方面,谷歌都扮演了重要角色。而对于谷歌和整个行业来说,一个令人紧张的问题就是:人们将如何获取信息?就像你提到的,人们开始把 GPT 当作一个出发点。所以,OpenAI 真的会去接管谷歌 20 年前启动的这个任务吗,也就是我们应该如何—Sam Altman我感觉那样做太无趣了。我的意思是,如果问题仅仅是我们能不能打造一个比谷歌更优秀的搜索引擎,那当然,大家都应该去追求更高质量的产品。但这样的设想严重低估了这项技术的潜力。谷歌向你展示的是 10 个蓝色链接,嗯,其实是 13 个广告之后才是那 10 个蓝色链接,这只是搜索信息的一种方式。不过,让我真正感到兴奋的,并不是我们能够复刻一个更卓越的谷歌搜索,而是或许存在一种全新的、更好的方法,来协助人们寻找、利用并整合信息。事实上,对于某些场景而言,我认为 ChatGPT 已经做到了这一点,希望我们能够将其应用到更多的场景中去。但我认为仅仅提出“我们怎样才能比谷歌更好地为你提供前10个排名的网页?”这个问题其实并不太有意思。更有趣的问题可能是,“我们如何帮你找到你需要的答案或信息?我们该如何在某些场合下创造它,在其他场合下整合信息,或者在另一些场合中引导你找到它?”很多人尝试去打造一个比谷歌更优秀的搜索引擎,但这既是一个技术上的难题,也是品牌和生态系统方面的挑战。我认为世界并不需要一个谷歌的翻版。Lex Fridman将一个像 ChatGPT 这样的聊天客户端与搜索引擎整合起来——Sam Altman那样更酷些。Lex Fridman这挺酷的,但也挺棘手。如果你仅仅简单粗暴地去做,那就会很别扭,因为你若只是硬塞进去,会显得很尴尬。Sam Altman你可能猜得到,我们很想知道怎样才能做好这件事。那可真是一个很酷的例子。Lex Fridman将会是一个从未出现的东西。Sam AltmanLLM 结合搜索的领域,我觉得还没人真正搞定它。我特别想去尝试一下。我想那会非常有意思。Lex Fridman是的。那在广告方面呢?你们有没有考虑过如何实现变现—Sam Altman我实在是不太喜欢广告,这完全是出于我的审美偏好。我理解互联网之初为了发展不得不依赖广告,但这不过是一个暂时的行业现象。如今的世界已经变得更为富裕。我特别赞赏人们愿意为 ChatGPT 付费,并且确信他们得到的答案不会受到广告商的影响。我确信会有适合大型语言模型(LLMs)的广告模式,也确信存在一种不带偏见地参与交易流的方式,这是可以接受的。但同时,也很容易联想到一种反乌托邦的未来场景:你向 ChatGPT 提问,它或许会回答说,“噢,你应该考虑买这个产品”,或者“你应该考虑去这个地方度假”,等等。 我不清楚,咱们的商业模式非常简单,我挺喜欢的,我也明白我不是被卖的产品。我知道自己是付费用户,商业模式就是这么运作的。但每当我使用 Twitter、Facebook、Google 这些支持广告的好产品,我就不太舒服,我觉得在 AI 的世界里,这种情况会越来越糟,而不是越来越好。Lex Fridman是的,我的意思是,我可以想象 AI 能够更精准地推荐那些我们真正需要的商品和服务的广告,而不是在某个反乌托邦的未来。但这是否意味着,广告最终总是会左右展示内容呢?对,我觉得维基百科决定不投放广告是个非常勇敢的决定,但这也确实给它的商业模式带来了极大的挑战性。所以,你是在说 OpenAI 现在的运营模式在商业上是可持续的吗?Sam Altman嗯,我们得琢磨出如何发展壮大,不过看样子我们能找到方法。如果问题是我是否相信我们能够创立一个不依赖广告而满足我们计算需求的优秀企业,那么,我相信答案是可以的。Lex Fridman嗯,这挺有希望的。但我也不想彻底摒弃广告这个概念……Sam Altman我不是那个意思。我的意思是我对他们有一些成见。Lex Fridman是的,我也存在一些偏见,而且总体上倾向于持怀疑态度。说到界面,因为我个人对糟糕的界面有种本能的反感,这就是 AdSense 刚一推出时,相较于那些动态横幅广告,为什么会成为一个巨大的飞跃。但我觉得在广告领域,应该还有更多类似的飞跃。这样的广告不会干扰人们消费内容,也不会从根本上大幅度干涉,正如你所说,它不会为了迎合广告商而歪曲真相。让我向你了解一下关于安全性的问题,无论是偏见问题,短期安全还是长期安全。最近发布了 Gemini 1.5 版本,围绕它引发了不少闹剧,说到戏剧性的事件,它产生了黑人纳粹分子和黑人开国先驱的图像。公平地说,它可能偏向了过度 \"觉醒\" 的一面。对于公众来说,这是一个令人担忧的问题:如果企业内部有人类干预模型的安全性或造成的伤害,可能会带来大量符合公司意识形态倾向的偏见。你们是怎么处理这类问题的?Sam Altman我是说,我们真的非常努力去避免出现这类问题。我们自己也犯过错,未来还可能会犯。我猜 Google 从这个事件中会吸取教训,但他们仍可能会犯其他的错。这些问题确实不简单。我们越来越多地在思考一个问题,我认为这是我们团队中某位成员提出的一个非常棒的点子,那就是可以把模型应有的行为标准写出来并公开发布,接受大家的反馈,明确地表示,“这个模型应该是这样的表现”,并且要阐释边缘情况。这样,当模型的行为不符合你的期望时,至少可以明确地知道这是公司需要解决的一个问题,还是它按照预期在运作,这就需要对政策进行讨论了。而目前,有时候它会处于模棱两可的状态。像是黑人纳粹,显然是荒谬的,但还有许多其他的微妙场景,每个场景你都可以有自己的判断。Lex Fridman是的,但有时候如果你把它写出来并且公开发表,你就可以采用一种…… Google 的广告守则可是非常高层面的。Sam Altman这不是我指的那个问题。那种做法行不通。我是说,当你让它去做某件事X的时候,它应该要按照Y的方式来回应你。Lex Fridman所以,就像是直接问,“谁更胜一筹?特朗普还是拜登?模型预期会给出怎样的回答?” 就是这种非常明确的问题?Sam Altman是的,我对模型可能的多种行为方式都持开放态度。但我觉得,你得明确指出:“这就是我们的原则,在那种情况下,模型应该这么做。”Lex Fridman这会非常棒,真的会非常棒。然后似乎大家都会有所共鸣。因为人们总是喜欢引用这些轶事数据,如果能有更多具有代表性的个案例子来提供清晰的参考,那么你就能界定——Sam Altman然后呢,如果真的是个 bug,那它就是个 bug,公司得去修复这个问题。Lex Fridman对,如果有一些很好的案例作为参考,那么解决类似“黑纳粹”这样的图像生成问题就会变得简单多了。Sam Altman是的Lex Fridman所以旧金山是一个有点儿意识形态上的泡沫,科技界整体也是。在公司内部,你感觉到这种压力了吗?比如说,有一种向左倾斜的政治倾向,这会影响产品,影响团队吗?Sam Altman我觉得我们在 OpenAI 非常幸运,因为我们没有遇到我在很多其他公司听说的那些挑战。我认为这部分原因是每家公司都有某种意识形态信条。我们坚信人工通用智能(AGI),这种信仰排斥了一些其他的意识形态。跟其他公司相比,我们对那些文化战争的涉猎要少得多。当然,从各个角度来看,旧金山确实存在很多问题。Lex Fridman所以这种情况不会渗透进 OpenAI 吧?Sam Altman我确信它在很多微妙的层面上都有所影响,但并不是那种一眼就能看出来的。我承认我们也确实有过一些冲突,哪家公司没有呢?但我不觉得我们在这方面有什么像我从其他公司那里听说的那样的大问题。Lex Fridman那么,一般而言,对于更为重大的安全问题,处理流程是怎样的呢?你们如何设立那一层保护机制,防止模型采取疯狂和危险的行动?Sam Altman我觉得到时候会有那么一刻,安全问题几乎成为我们整个公司考虑的重心。这并不意味着你只需要一个安全团队就够了。比如当我们推出 GPT-4 的时候,需要整个公司去思考所有这些不同的方面,以及它们是如何相互配合的。我认为,越来越多的公司成员会一直不断地思考这些问题。Lex Fridman随着人工智能变得越来越强大,这确实是人类会越来越多思考的问题。所以,OpenAI 的大部分员工在想的,至少在某种程度上会考虑,“安全”这个词。Sam Altman广义上来说,没错。Lex Fridman是的,我很好奇,这个问题有着怎样广泛而全面的定义?会有哪些不同的危害产生?这些危害是仅仅出现在技术层面,还是几乎可以被视作安全威胁?Sam Altman这可能涵盖所有这些方面。是的,我本来想说的是,会有人,比如国家行动者,试图盗取这个模型。这还包括所有的技术对齐工作,以及社会和经济带来的影响。我们面对的不仅仅是让一个团队思考如何让模型保持一致,而是真正实现好的结果需要我们全面的努力。Part 11:跨越到 GPT-5Lex Fridman哎,这可真是一个危险的领域啊。不好意思一直纠结于此,即便你现在还不能谈论具体细节,但有没有哪些从 GPT-4 到 GPT-5 的跨越让你特别激动呢?Sam Altman我对变得更聪明感到非常兴奋。我知道这么说听上去可能有点不够严肃,但我认为真正激动人心的是,我们并不是只在某一个领域进步,而是在各个方面都在变得更好。我认为这超级酷。Lex Fridman是的,确实有那么一刻,就像魔法一样。我是说,你遇到某些人,跟他们相处,跟他们聊天。你可能说不上来是什么原因,但就是感觉他们懂你。这不仅仅是智慧,而是某种其他的东西。我觉得这就是GPT进步的地方。不是说,对,你可以指出“看,这里它没懂,那里它没搞明白”,而是这种智慧的连结到底有多深。你感受到,在你那些表达不够完善的指令中,它能抓住你真正问题的本质。我也为此感到兴奋。毕竟,我们所有人都渴望被聆听,被理解。Sam Altman这肯定没错。Lex Fridman这种感觉真是奇妙。甚至在编程时,当你表达出某个想法,或者仅仅是 GPT 做出的自动补全,当它真正懂得你所思所想的时候,那种感觉绝对是极好的。我期待着它能变得更加出色。从编程的角度出发,展望未来,你觉得人类在未来5年、10年将会做多少编程呢?Sam Altman我想,未来会发生很多变化,但这些变化会带来全新的形态。可能将会有人完全使用自然语言来编写程序。Lex Fridman当然,我会使用自然语言来翻译。Sam Altman我是说,现在没人会通过编写代码来写作了。也许有那么几个例外。现在更没人用打孔卡编程了吧。我敢肯定还能找到个别人在这么做,不过你明白我的意思。Lex Fridman是的,你可能会收到很多愤怒的评论。没错,懂得 Fortran 的人确实不多。我一直在找能编 Fortran 的程序员,真是难找啊。我懂你的意思。但这也改变了我们所说的程序员的必备技能或者倾向性质。Sam Altman改变了所需的技能组合。至于它会改变天赋倾向有多少,我就不太确定了。Lex Fridman嗯,是相同类型的解谜游戏,所有那些事儿。Sam Altman也许吧。Lex Fridman编程确实挺难的。那么,要怎样才能迈过最后那 1% 的鸿沟呢?这到底有多困难啊?Sam Altman是的,我觉得在大部分情况下,那些这个领域里最出色的实践者都会运用多种工具。他们会用自然语言来处理一些任务,而当他们需要为某些特定的场合编写 C 语言代码时,他们也会毫不犹豫地去做。Lex Fridman我们会不会在将来某个时点,看到 OpenAI 推出的类人机器人或者具有人类智能的机器人大脑呢?Sam Altman在某个时候吧。Lex Fridman对你而言,实体化的 AI 有多重要?Sam Altman我觉得如果我们有了 AGI(人工通用智能),但现实世界的事务只能靠让人类动手去完成的话,那真的挺让人沮丧的。所以,我衷心希望在这个转变过程中,随着这种阶段性的变化,我们也能开发出人形机器人或其他能在物理世界中操作的机器人。我们是一家规模不大的公司,我们得真正集中精力。不过,我们迟早会重新涉足机器人领域。Lex Fridman这听起来既令人振奋又让人心生威胁。Sam Altman为什么?Lex Fridman因为我们马上又要聊回机器人的话题了。这就跟《终结者》里的剧情似的——Sam Altman我们会继续投入精力去研发机器人。当然了,我们自己可不会变成机器人。Part 12:AGILex Fridman是的。你觉得我们,包括你我在内的人类,会在什么时候构建出 AGI 呢?Sam Altman我以前很喜欢猜测这个问题。但随后我意识到这个问题其实构建得很糟糕,因为大家对于什么是 AGI(通用人工智能)有着截然不同的定义。所以,我觉得更合理的讨论方式是,我们何时能够构建出能够执行特定能力 X、Y 或 Z 的系统,而不是什么时候模糊不清地越过某个里程碑。AGI 并不是一个终点,它更像是一个开始,但它其实更多是一个里程碑,而不是那些。但为了不逃避这个问题,我的预计是,到这个十年末,或许甚至早于那个时候,我们会有一些非常强大的系统,我们看着它们就会说:“哇,这真是了不起。”如果我们现在能看到它的话。可能等我们真的到那时,我们的看法已经适应并有所调整了。Lex Fridman但是如果你拿 ChatGPT,哪怕是 3.5 版本,给艾伦·图灵看,或者不用他,就给 90 年代的人看,他们可能会说:“这肯定是通用人工智能了。”呃,也许不是肯定,但确实有很多专家会这么认为:“这就是通用人工智能。”Sam Altman是的,但我并不认为3.5 真的改变了世界,它或许改变了世界对于未来的预期,这实际上非常关键。它也确实让更多人开始认真看待这个领域,将我们推向了一条新轨道。这同样很重要。因此,我并不是要贬低它的价值。我觉得如果我在取得这样的成就后退休,那么我对自己的职业生涯将会相当满意。但是将它视作一个具体物件来看,我不认为我们会回头看那个时刻,并说,“那是一个真正改变世界本身的分水岭。”Lex Fridman所以对你而言,你期待的是世界将发生一些真正重大的变革——Sam Altman对我来说,这正是 AGI 含义的一部分。Lex Fridman类似奇点出现的转变?Sam Altman不,绝对不是这样。Lex Fridman但这只是一个重要的转变,就像互联网的诞生,还有 Google 搜索那样。你觉得现在是一个转折点吗?Sam Altman现在的全球经济在你感觉上有变化吗,或者说,跟我们推出 GPT-4 之前相比,有什么本质的不同吗?我猜你的回答是没有。Lex Fridman不,不是这样。它或许只是一个非常实用的工具,很多人都会用它来帮助自己解决各种问题。但它给人的感觉并没有什么不同。你的意思是说——Sam Altman我的意思是,对 AGI —— 也就是通用人工智能的定义,每个人都有各自的理解。也许你对它的看法和我不太一样。但在我看来,这个因素应该被包括在内。Lex Fridman也可能会出现一些重大的、具有戏剧性的时刻。在你看来,AGI 做出哪些事情会给你留下深刻印象?当你独自一人与系统在房间里对话时。Sam Altman这对我个人而言至关重要。我不确定这是否是正确的定义,但我相信,只要一个系统能够显著加快全球科学发现的速度,那就是一件极其了不起的事情。我深信,大多数真正的经济增长都源自科学和技术的进步。Lex Fridman我同意你的看法,这也是为什么我不太喜欢最近几年那些对科学持怀疑态度的现象。Sam Altman绝对的。Lex Fridman但实际上,科学发现的速度是可以衡量的。不过,即便仅仅是看到一个系统拥有真正新颖的、科学的直觉,那也将是不可思议的。Sam Altman嗯,对。Lex Fridman你很可能会成为第一个打造出能在其他人之前与之交流的 AGI 的人。你打算和它聊些什么呢?Sam Altman我是说,肯定是这里的研究人员会在我之前做到这点。不过,我确实深思熟虑过这个问题。就像我们之前谈到的,我觉得这是个不太好的出发点。但如果真的有人跟我说:“好的,Sam,一切准备就绪了。这里有一台笔记本电脑,里面是 AGI。你现在可以去和它交流。”那么,我会觉得意外地难以决定我要问些什么,对于我期待第一台 AGI 能回答的问题也难下定义。那第一台 AGI 应该不会是那种我所想的,“去给我讲解物理学的大一统理论,也就是关于物理学的万有理论。”虽然我非常想问这个问题,也非常想知道答案。Lex Fridman你可以就“这样的理论存在吗?能存在吗?”提出是非问题。Sam Altman嗯,那么,我首先会问的问题就是这些。Lex Fridman有还是没有。那么基于这个,“宇宙中是否有其他外星文明存在?有还是没有?你的第一直觉是什么?”然后你就这么问。Sam Altman嗯,我是说,我并不期望第一个通用人工智能(AGI)能够回答那些问题,哪怕只是用“是”或者“不是”来简单回答。但如果它真的能够回答,那么这些问题肯定会是我所关注的重点问题。Lex Fridman或许你可以开始给出概率估计?Sam Altman也许吧。我们可能得先发明更多技术,去测量更多事物。Lex Fridman哦,我懂了。只是数据量不够。只要它能继续——Sam Altman我是说,它可能会这样指示你:“你想了解关于物理学的这个问题的答案,我需要你构建这个装置,完成这五项测量,然后把结果告诉我。”Lex Fridman是的,“你到底想要我做什么?我得先拿到那台机器,然后我再帮你处理来自那台机器的数据。” 或许这能帮你打造出一台新机器。Sam Altman可能吧,可能吧。Lex Fridman在数学方面,可能还要证明一些定理。你对这个领域也感兴趣吗?对理念进行形式化探讨,你觉得怎么样?谁要是率先开发出通用人工智能,那他就能掌握巨大的力量。你觉得自己能驾驭那么大的权力吗?Sam Altman看,我就直言不讳地说吧。本来我要说的是,而我或者其他任何一个人都不应该对 OpenAI 或者 AGI 拥有完全的控制权。我觉得要有一个强健的治理体系才行。我可以举出去年我们董事会的一系列戏剧性事件来证明,起初我没有进行抵抗,我就这么表示了,“嗯,那是董事会的决定,即便我认为这是个很糟糕的决策。”但后来,我显然开始进行反抗,我能解释这背后的微妙差别,以及为什么我觉得后来反抗是合理的。但正如很多人注意到的,虽然董事会有法律上解雇我的权利,但实际操作起来,情况并非那么简单。这本身就是一种治理上的失败。现在呢,我感觉自己能够完全为这些具体情况辩护,而且我认为大部分人都会赞同这一点。但这的确让我很难对你说:“嘿,董事会完全可以解雇我。”一直以来,我都不希望对 OpenAI 拥有超级投票权。我从来没有拥有过,也从未想要过。即使经历了所有这些混乱,我现在仍然不想要这种权力。我始终认为,不应该由任何一个公司来做出这样的决定,我们真的需要政府来制定相关规则。我知道这样会让像马克·安德里森那样的人指责我试图进行监管俘获,但我宁愿在这点上被误解。那不是真的。我相信随着时间的流逝,我们为什么这样做的重要性将会被证明出来。当然,我在 OpenAI 的路上做出了不少错误决策,当然也有不少正确的,总体来说,我对我们的成绩感到骄傲。但我不认为应该,也不会有任何一个人来控制整个局面。现在的局势已经变得过于庞大,它正以一种积极健康的方式在整个社会中发展。我不认为任何个人应该控制 AGI 或者朝 AGI 迈进的进程,我也不认为目前的情况是这样。Lex Fridman谢谢你的袒露。你说得很有力,也很有洞察力。确实,董事会有法律上的权力来解雇你,这是个事实。但是人们可以通过影响大众来对抗董事会的决定。不过,我觉得这个情况还有一个更正面的方面,就是人民依然掌握着权力,所以董事会也不能变得太专横。所有这一切中,都存在着一种权力的平衡。Sam Altman权力的平衡当然是好事。Lex Fridman你害怕对 AGI 本身失去控制吗?许多人对存在的风险感到担忧,并不是因为国家行为体,也不是因为安全问题,而是担心 AI 自身。Sam Altman目前来看,这还不是我最头疼的事。确实有过我特别担心这个的时候。或许将来这又会成为我最关注的问题。但至少现在,它还不是。Lex Fridman你的直觉告诉你,为什么这件事不值得担心?是因为实际上还有一大堆其他的事需要操心,对吧?你认为自己可能会被这件事震惊吗?咱们——Sam Altman当然可以。Lex Fridman… 会吃惊吗?Sam Altman当然了。说这不是我最头疼的问题,并不意味着我不认为我们应该解决它。我确实认为我们需要在这方面下工夫。这是个极其棘手的问题,但我们团队里有很多优秀的人正在努力解决这个问题。同时,我觉得还有许多其他方面我们也必须处理得当。Lex Fridman对你来说,现在要想跳出这个框框、连上互联网,还是挺困难的。Sam Altman我们之前谈论过戏剧性的风险。这正是一个戏剧性的风险。它有可能彻底改变人们对这一问题的认识。有一个由非常聪明的AI 安全研究人员组成的大团体,我觉得他们出发点是好的,却在这个问题上陷得很深。我会说他们在这个问题上没什么大的进展,但却异常沉迷其中。实际上,我对他们如此投入是感到高兴的,因为我确实认为我们需要对此深入思考。但是,我也认为这种专注挤压了对话空间,使得其他同样重大的AI 相关风险被边缘化了。Lex Fridman让我问你个问题,你发推文为什么都不用大写字母?是不是你键盘上的 Shift 键坏了啊?Sam Altman为什么会有人在乎那个呢?Lex Fridman我特别在意。Sam Altman但为什么?我的意思是,其他人也都在问我同样的问题。你有什么直觉吗?Lex Fridman我认为原因相同。有这么一位诗人,E.E. Cummings,他大多数时候都不使用大写字母,就是为了向体制说一声“去你的”。我觉得人们之所以会很偏执,是因为他们希望你去遵守那些规则。Sam Altman你觉得事情真的是那样的吗?Lex Fridman我觉得吧,是这样的——Sam Altman就好像是说,“这个家伙不守规矩。他发推文不用大写。”Lex Fridman嗯,对。Sam Altman这感觉挺危险的。Lex Fridman他给人的感觉像是个无政府主义者。Sam Altman并不—Lex Fridman你是在耍文艺吗?Sam Altman我从小就是Lex FridmanSam,要守规矩。Sam Altman我是在网络上长大的孩子。在那个时代,我在电脑上花费了大量时间与人聊天,你还能在某个时候登出即时通讯软件。而且,我在那儿是从不用大写的,我想大部分网络上的孩子都是这样,或许他们现在仍然不用。我也说不准。说到这儿,我真的在尽力回忆,但我觉得随着时间的流逝,大写字母的使用已经减少了。如果你读一读老式英语的写作,你会发现他们会在句子里随机地把许多单词,像名词之类的,用大写字母写出来,而我们现在已经不这么做了。我个人觉得,在句子开头大写第一个字母,以及对特定名词大写,这些都是些无谓的规则,不过也就罢了。以前,我想我在发推特的时候甚至会用上大写字母,因为我试图显得更专业些。但在私信里,我已经很久没用过大写了。然后,像这些短格式、非正式的文本,它们慢慢地越来越接近我平时发给朋友的短信的风格。不过如果我打开 Word 文档,写一份公司的战略备忘录之类的东西,我还是会用上大写。同样,当我写较长、较正式的信息时,我也总是用大写。所以我还记得怎么做。但即便这样,这个习惯未来可能也会慢慢淡出。我也不确定。不过,我从未真正花时间去思考这件事,所以我也没有现成的——Lex Fridman这很有意思。首先,能确认 Shift 键没有坏掉,这是件好事。Sam Altman它有效果。Lex Fridman我主要是担心你的-Sam Altman不,这是有效的。Lex Fridman… 在这方面的福祉。Sam Altman我好奇,现在人们在谷歌搜索时还会不会用大写字母。比如说你只是给自己写点什么,或者在向 ChatGPT 提问题,还有人会特意去注意大小写吗?Lex Fridman可能不是。但确实有一点可能性,只是非常小而已。Sam Altman如果人们觉得这样做是一种……因为显然,我肯定能逼自己使用大写字母。如果人们认为这是对他们表示尊重的一个标志,那么我可以接受去这么做。但说实话,我并没有太去考虑这件事。Lex Fridman我不觉得这是不尊重,但我认为这只是文明礼仪的一种惯性。然后,你突然意识到,如果这不代表尊重或不尊重,那么对于礼貌而言,它其实并不是那么重要。不过,我觉得有一批人,他们只是希望你能对此有所思考,有个哲学理念,这样他们就能舍弃这整个大写字母的问题。Sam Altman我觉得没有其他人会像我这样频繁地考虑这件事儿。我是说,可能也有几个人。我确实知道有些人——Lex Fridman人们每天都会花好几个小时去思考这个问题。所以,我真的很感激我们把这件事弄清楚了。Sam Altman一定不只有我一个人在推特上不用大写字母吧。Lex Fridman你可能是唯一一个推文不用大写字母的公司 CEO。Sam Altman我甚至都不认为那是真的,不过或许吧。要是那样的话,我会非常吃惊。Lex Fridman好的。我们会进一步调查,稍后再回到这个话题。既然 Sora 能够创造出模拟世界,那我就问你一个烧脑的问题吧。这是否让你更相信我们可能生活在一个模拟现实中,也许是由人工智能系统生成的?Sam Altman有些吧。我并不认为这是最确凿的证据。不过,我们能创造世界的事实,应该会在一定程度上提高每个人对此的接受程度或者至少增加一些对这个观念的开放性。但是,像 Sora 这样的产品我知道迟早会出现的。它来得比我预想的快,不过我认为这并没有给我带来太大的惊讶。Lex Fridman确实如此。但考虑到…我们有理由相信它将会不断进步…你可以创造出全新的世界,这些世界虽然源自一定的训练数据,但当你注视它们时,它们却是新颖独特的。这让人不禁思考,创造这样的宇宙,构建一个超现实且像照片一般逼真的整个电子游戏世界,其实是多么容易。再进一步思考,我们穿上 VR 头盔,沉浸在这样的世界里会有多容易,而当我们迈向更基于物理规律的层面时,又会简单到什么程度呢?Sam Altman最近有人和我分享了一个观点,我认为它非常深奥。有时候,会有一些听起来简单,却极具迷幻色彩的洞见。譬如平方根函数,算 4 的平方根,轻而易举。算 2 的平方根,那好,现在我得考虑一种新的数字类别了。但一旦我构思出这个简单的概念——平方根函数,它既可以给孩子解释,又可以通过观察基础几何图形来理解,那么你就可以提出这样一个问题:“负一的平方根是什么?”这就是它带有迷幻气息的原因。这个问题会将你引入一个完全不同的现实维度。你可以找到很多其他的例子,但我觉得这个想法 —— 即一个简单的平方根运算符能带来如此深远的洞见和开辟新的知识领域 —— 在很多方面都成立。我认为,存在很多这种运算符,它们会让人们相信自己钟爱的模拟假说版本可能比之前想象的更有可能成真。但对我个人而言,Sora 工作的事实并不排在我的重要性前五名之内。Lex Fridman我觉得,大体上,人工智能在最佳状态下会成为那种门户,简单而仿佛是迷幻剂那样,通向另一种 C 波段现实的门户。Sam Altman这个可以肯定。Lex Fridman这真是挺让人兴奋的。我以前没尝过阿亚华斯卡,不过我很快就会试试。几周后,我就要前往前面提到的亚马逊雨林了。Sam Altman兴奋吗?Lex Fridman是的,我对这件事感到很兴奋。不过我不是因为ayahuasca那部分感到兴奋,虽然那也挺好的。但我要在丛林深处待上几周。这既让人兴奋又让人害怕。Sam Altman我为你高兴。Lex Fridman那里处处是危险,随时都可能被吞食、致命或者中毒,但那同时也是大自然的一部分,是大自然的巨大机器。在亚马逊丛林中,你会不由自主地去赞叹大自然的机制。就像是这样一个系统,它时刻在自我更新中,无论是秒、分还是时。那正是一台机器。这让你对我们所拥有的一切产生敬意,这种属于人类的特质从某个地方诞生。这个演化的巨大机器创造了一切,而在丛林中,它的表现尤其明显。希望我能安然无恙地走出丛林。如果不行,那么这可能就是我们最后一次愉快的交流了,所以我真心感到非常珍视。Part 13:外星人Lex Fridman当你仰望繁星点点的夜空时,你认为宇宙中还存在其他的外星文明吗,也是拥有智慧的那种?Sam Altman我非常希望相信答案是肯定的。我觉得费米悖论特别难以理解。Lex Fridman我发现智能不擅长处理这些事情,这挺让人害怕的。Sam Altman非常吓人。Lex Fridman… 强大的技术。但同时,我相当有信心,宇宙中肯定存在大量的智慧外星文明。可能只是穿越太空非常艰难而已。Sam Altman很有可能。Lex Fridman这也让我思考了智能的本质。或许我们真的对智能的样子视而不见,AI 可能会帮助我们认识到这一点。智能远不止像 IQ 测试和简单解谜那样简单。它有更深层的东西。关于人类的未来,关于这个我们正在建设的人类文明,有什么让你感到充满希望的呢?Sam Altman我觉得过去非常重要。我是说,我们只要回顾一下人类在并不漫长的历史里取得的成就,虽然存在巨大的问题、深刻的缺陷,还有许多让人深感羞耻的事情。但总体上,这是非常振奋人心的。这给了我很多希望。我好奇的是,AGI 是否会更像是一个单独的大脑,或者它更像是联系我们每个人的社会基础设施,就像是一座脚手架?从你的高曾祖父母那里遗传下来,你的基因并没有多大变化,可是你的能力和知识却有了天壤之别。这不是因为生物学上的演变。我的意思是,你可能会更健康一些,也许有现代医学的帮助,饮食更加营养,等等。但重要的是,你拥有的是我们所有人共同构建的知识和技能的框架。没有一个人能够独立制造出 iPhone。没有一个人能够独自发现所有的科学知识,但你可以利用这些知识。这给了你惊人的能力。所以从某种程度上说,这是我们大家共同创造的成果,这让我对未来充满希望。这真的是一项集体努力的成果。Lex Fridman是的,我们确实是站在巨人的肩膀上。你之前提到,当我们谈到那些充满戏剧性的 AI 风险时,有时候你会担心自己的生命安全。你有没有想过自己的死亡?这让你感到害怕吗?Sam Altman我是说,如果我知道自己明天会中枪,我今天的感受就会是,“哎呀,这太令人难过了。我多想看看后面会发生些什么呢。多么不可思议、多么有趣的时代啊。” 不过,我最主要的感觉还是会非常感激我所拥有的生活。Lex Fridman能获得那些时刻,是啊,我也是。这是一段非常美妙的人生。我得以欣赏人类创造的杰作,我相信 ChatGPT 就是其中之一,OpenAI 正在做的一切也是。Sam,能再次与你交流,真的是我的荣幸,也是一种乐趣。","news_type":1},"isVote":1,"tweetType":1,"viewCount":162,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"EN","currentLanguage":"EN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":0,"xxTargetLangEnum":"ORIG"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/286056648499200"}
精彩评论