近日,OpenAI资深员工Miles Brundage宣布从OpenAI离职,并称专注于AI安全研究的“AGI Readiness”团队将被解散,其余成员将被分配于其他团队。
作为“AGI Readiness”团队的高级顾问,Miles Brundage离开OpenAI难免引起对AI安全的关注,他在 Substack的一篇帖子中表示,短时间内,在迎接通用人工智能(AGI)方面,包括OpenAI在内的众多人工智能实验室并未做好准备,世界也未做好准备。
为什么从OpenAI离职,Miles Brundag表示自己更希望从外部影响人工智能的发展。
Miles Brundag认为,自己留在OpenAI不得不面对更高的机会成本,这将不利于他从事更为重要的课题研究。尽管Miles Brundag认为人工智能行业的发表限制具有合理性,但是过多的限制其实不利于自己对重要话题的发表与讨论,而OpenAI则面临着多方面的审查。
Miles Brundag希望可以减少偏见,而存在独立于行业的声音对此极为重要。他强调自己已经完成了大部分打算在OpenAI完成的事情,而关于世界对人工智能的管理方面,他认为自己在外部会有更有效的贡献。
针对人工智能相关政策制定,Miles Brundag认为人工智能造福全人类需要政府、非营利组织、民间社团和行业的决策者作出深思熟虑的选择,这需要强有力的公共讨论来提供信息。
人工智能有着极为明显的优点,其缺点也同样明显。伴随人工智能的快速发展,政策制定者也需要快速采取行动。Miles Brundag对此表示兴奋,他一方面认为符合公众所需的人工智能政策想法还未出现,一些观点不好或者过于模糊,而另一方面他指出我们确实拥有一些被需要的想法亟待实施。一些意识或者政治意愿处于缺失状态,这是Miles Brundag不想将自己局限于研究的一项原因。
Miles Brundag指出,数十家公司将在几年时间内拥有足以造成灾难性风险的系统,提高前沿人工智能的安全性非常紧迫。
由于包括私人和社会利益的错位等诸多原因,公司和政府不一定会在默认情况下给予人工智能安全性应有的关注。Miles Brundag认为,监管可以减少私人和社会之间的利益错位,对人工智能技术的安全性做出把控。
在人工智能的经济影响方面,Miles Brundag表示,在未来几年内,人工智能可能会带来足够的经济增长,如果有适当的政策来确保财富公平分配,人们能够轻松实现提前退休。
人工智能可能会在短期内破坏迫切需要工作的人的机会,Miles Brundag对此表示担心,但他同时认为人类最终要消除以工作为生的义务,迈向“后工作世界”。
除了对前沿人工智能安全性的监管以及经济影响的关注,Miles Brundag还对人工智能进展的评估预测、加速有益的人工智能应用、计算治理以及整体“人工智能大战略”等多个课题表达了兴趣。
关于离职后的计划,Miles Brundag表示自己将成立新的非营利组织,或者加入现有的非营利组织,致力于人工智能政策研究和倡导。
Miles Brundag表示自己的兴趣是全球性的,但自己可能会更专注于自己更为熟悉的国家,如美国。
OpenAl为Miles Brundag提供了资金、API信贷和对新成果的早期模型访问,并保证不会有与这种支持相关的出版前审查,但是出于对独立性的考虑,Miles Brundag在文章中表示自己尚未决定是否接受这些提议。
精彩评论