为什么比尔·盖茨认为人工智能需要一定的自我意识?

36氪07-21 09:15

1. 比尔·盖茨表示,“元认知”是人工智能的下一个前沿领域。

关于人工智能的报道和写作让我对人类大脑的惊人之处有了全新的认识。虽然大型语言模型(LLMs)令人印象深刻,但它们缺乏我们人类认为理所当然的整体思维。比尔·盖茨在Next Big idea Club播客节目中提出了这个观点。盖茨在接受主持人鲁弗斯·格里斯科姆(Rufus Griscom)的采访时,详细谈到了“元认知”,它指的是一种能够思考自身思维的系统。盖茨将“元认知”定义为“从广义上思考问题,然后退一步想,这个问题的答案有多重要?我如何检验自己的答案,哪些外部工具可以帮助我做到这一点?”

这位微软创始人表示,GPT-4 或 Llama 等现有大型语言模型的整体“认知策略”仍然不够完善。盖茨说:“它只是通过不断的计算来生成每个标记和序列,不会像人类一样后退一步,然后思考:好吧,我要写这篇论文,这是我想涵盖的内容;好吧,我会在这里做一些阐述,这是我想做的总结,等等。”

盖茨认为,人工智能研究人员常用的提高大型语言模型性能的方法(扩大训练数据,提高计算能力)只会带来几次大的飞跃。在此之后,人工智能研究人员将不得不采用“元认知”策略,教人工智能模型更聪明地思考,而不是更努力地思考。

盖茨说,“元认知”研究可能是解决大型语言模型最棘手问题的关键:大型语言模型的可靠性和准确性。他说:“这项技术......将达到超人的水平,但需要加上可靠性限制,我们今天还达不到这个水平......许多新研究都增加了“元认知”的水平,如果做得好,就能解决天才的不稳定性问题。”

2. 美国最高法院对雪佛龙里程碑式的裁决将如何影响科技和人工智能?

近日,最高法院对雪佛龙(Chevron)一案的裁决的影响变得越来越清晰,包括它对人工智能的未来意味着什么。在 Loper Bright 诉 Raimondo 案中,法院推翻了“雪佛龙原则”(Chevron Doctrine),该原则要求法院尊重联邦机构对不直接解决争议中心问题的法规的(合理)解释。从本质上讲,最高法院认为司法机构比行政机构更有能力(也许政治动机更少)填补国会通过的法律中的法律模糊之处。这或许有一定道理,但反方的论点是,行政机构拥有多年的主题和行业专业知识,这使他们能够更有效地解释国会的意图并解决争端。

正如斯科特·罗森伯格(Scott Rosenberg)所指出的,取消“雪佛龙原则”可能会使通过有意义的联邦人工智能法规变得更加困难。“雪佛龙原则”允许国会将法规定义为一系列一般性指令,然后由机构专家来定义具体规则,并在实施和执行层面逐案解决争议。现在,国会将负责提前制定法律的细枝末节,尽力预测未来可能出现的争议。对于人工智能这样一个年轻而快速发展的行业来说,这可能尤其困难。在“后雪佛龙”时代,如果国会通过了人工智能法规,那么从现在起将由法院来解释法律,但届时行业、技术和参与者都可能发生了根本性的变化。

但并不能保证法院会迎接挑战。只要看看高等法院的决定就知道了,它有效地推翻了德克萨斯州和佛罗里达州管理社交网络内容审核的法规的合宪性。莫卡特斯中心人工智能研究员迪恩·鲍尔指出:“鉴于人工智能的兴起,他们不愿意解决社交媒体(一种成熟的技术)上的此类争议,这可能会带来更棘手的法律问题。”

3. Figma 的新 AI 功能似乎复制了苹果的设计。

设计应用程序制造商 Figma 暂时关闭了其新推出的 "Make Design "功能,因为有用户发现该工具生成的天气应用程序用户体验设计与苹果公司的天气应用程序极为相似。生成式人工智能模型的这种复制通常表明其在某一特定领域的训练数据不足,导致过于依赖单一的、可识别的训练数据,在本例中就是苹果的设计。

但 Figma 首席执行官迪伦·菲尔德(Dylan Field)否认自己的产品在训练过程中接触过其他应用设计。“正如我们公开解释的那样,该功能使用现成的大型语言模型,结合我们委托这些模型使用的设计系统,” 菲尔德表示,“这种方法的问题......是可变性太低。” 翻译一下,也就是说,承认“Make Design”的系统训练不足,但这不是Figma的错。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法