又到年底,那些AGI预言“实现”到哪一步了?

适道
11-26

user-image

2024年余额告急,目测一大波#展望2025#正在路上。

谁还记得大佬们对2024年的展望?

OpenAI联创Greg Brockman曾预测:在2024年,AI能力、安全性、潜在影响的积极性上,都将是突破性的一年。长远来讲,2024年不过是指数级发展的又一年,每个人的生活都会比今天更好。

一年以来,不仅GPT-5爽约,Brockman本人险些离席,甚至连被奉为圭臬的Scaling Law最近也遇到了“小插曲”。

英伟达高级科学家Jim Fan曾预测,2024年将是“视频年”。尽管机器人和具身智能体才刚刚起步,但视频AI将在未来12个月内迎来突破性进展的时刻。

一年以来,各类优秀的视频生成产品陆续发布,全员处于加速状态。但视频生成领域并未迎来“GPT时刻”,商业化探索同样是个难题。

年初惊艳世人的Sora,自横空出世以来,就鸽了。。。。其背后原因,据说是卡在了审查关。一方面,要和政府深入探讨安全风险;另一方面,亟需好莱坞和艺术家们入驻合作。

另一种可能性是,太烧钱了。Factorial Funds估算,Sora在训练环节对算力需求比LLM高出好几倍,至少需要在 4200-10500 块H100 上训练1个月。如果Sora得到大范围应用,比如TikTok的 50%视频由 AI 生成、YouTube的15%视频由AI 生成,推理环节则需要约72万台H100,大概烧216亿美元。前OpenAI CTO Mira提到,公司希望成本做到和Dall·E接近后再考虑开放。

阿波罗首席经济学家Torsten Sløk曾撰文称,AI泡沫的“糟糕程度”不仅超过了1990年代,还超过了互联网泡沫巅峰时期的水平。

一年以来,生成式AI应用依然处于早期,但挡不住巨头们的下注热情。红杉算了一笔账,AI的预期收入和基建投入之间,或存在6000亿美元缺口。目前局势尚且稳定,不过历史给我们的教训是,泡沫需要很长时间才能破裂......

所谓“预言”,往往会出现“方向”正确;“时间点”错误的情况。虽然你很难咬定上面哪条预言判断有误,但目前的“体感”并不明朗。

“黑天鹅”之父塔勒布曾在《反脆弱》一书中提出了“脆弱推手”(Fragilista)的概念,特指那些在系统中增加脆弱性的“西装革履”的人物或机构。他们会用“预测”,规划未来的路线图,对于自己不理解的事物,则倾向于当其不存在。

然而,如果这些“预言家”完全置身事内,其“预测”将影响自身利害,情况就大不相同了。比如,包括上述Greg Brockman等等投身AI事业的诸位大佬,他们或许会夸张炒作,或许会误测时间,但不会纸上谈兵。

只不过,有些预言实在是“太夸张”了。

最近,在一段YouTube视频采访中,当被问及对2025年的期待时,OpenAI CEO Sam Altman答道:AGI?我对此很兴奋。我们要有“孩子”了,这是我一辈子最兴奋的事情。

user-image

眼看GPT-5正在“卡壳”,你是信2025实现AGI,还是信我是秦始皇。关于AGI的预言都有哪些?想要实现还差几步?《商业内幕》的一篇文章《Those bold AGI predictions are suddenly looking stretched》进行了解释。

看山跑死马,“明年实现AGI”堪比“明年移民火星”

盘点大佬们对AGI的预测,大致存在“2026年”“2029年”,以及“2034年”三个时间节点。

第一梯队:3年内

OpenAI CEO Sam Altman:对2025年实现 AGI充满期待。

“全美Cutter”马斯克:最迟2026年会出现 AGI。

Anthropic创始人Dario Amodei :预测2026年实现AGI 。

OpenAI联创John Schulman:AGI将在2027年实现,ASI将在2029年到来。

第二梯队:5年内

诺奖得主、AI教父Geoffery Hinton:5年内看到AGI。

英伟达创始人兼CEO黄仁勋:未来5年,AI能通过人类任何测试。

谷歌首席研究员Ray Kurzweil:预测AGI将在2029年到来。

《奇点临近》作者Ray Kurzweil:预测2029年实现AGI。

第三梯队:10年

诺奖得主、DeepMind创始人 Demis Hassabis:实现AGI 需要10年时间,且还需要 2 到 3项重大创新。

软银CEO孙正义:AI将在10年内比人类聪明一万倍。(直接预言上了ASI)

当然,还有一些“白日梦”组合。

Yann LeCun认为,AGI短期内不会出现。至少不会像好莱坞科幻电影那样突然出现。它更可能是一个渐进的过程,而不是某个时刻突然“开机”就得到AGI。实现真正的“人类级别”的AI之前,我们得到的更可能是一种“猫级别”或者“狗级别”的低智能AI。

吴恩达对宣称AGI即将到来持怀疑态度:我希望能在我们有生之年看到AGI,但我不确定。

人工智能专家Gary Marcus曾表示,如果我们继续深度学习和语言模型的路线,将永远无法实现AGI,更遑论ASI了。因为这些技术存在缺陷,相对薄弱,只有通过更多的数据和算力,才能取得进步。

华盛顿大学计算机科学教授、《终极算法》作者Pedro Domingos曾断言:ASI只是一个白日梦。

对于AGI的预测,背后关系着数万亿美元的投资。其无疑是未来科技发展的重要方向,但更重要的是,看清楚什么是真实可行,什么是过度炒作。

文章作者Alistair Barr认为,警示信号已经出现。

最为迫切的是Scaling Law“撞墙”:OpenAI联创Ilya Sutskever明确表示,依赖于扩大模型规模的结果似乎已经停滞;OpenAI研究员Noam Brown表示,在某个节点,扩展模式会失效;谷歌下一代Gemini性能未达预期,内部正在重新评估训练数据的使用方式。

连“技术乐观派”投资人都开始“谨言慎行”。

a16z创始人Marc Andreessen和Ben Horowitz怀疑LLM是否能保持现有的发展劲头。

Andreessen表示:目前看起来,AI模型的能力似乎遇到了某种瓶颈。当然,行业中有许多聪明人正在试图突破这个天花板。但是,如果你仅仅从数据和性能趋势图来看,AI模型性能的提升速度正在放缓,并呈现出一种“触及天花板”的趋势。

Horowitz则指出了阻碍因素:即使芯片到位了,我们可能也没有足够的电力支持。而有了电力后,又可能缺乏有效的冷却手段。虽然GPU的算力在不断提升,但AI模型的性能却未能同步增长,这表明仅仅依靠硬件的升级并不能解决所有问题。

如果目前无法突破这个技术瓶颈,那么短期内实现AGI的可能性几乎为零。如今,Google未给出明确回应;Sam Altman直接表示,没有撞墙;Anthropic则表示,尚未发现任何偏离Scaling law的迹象。

有趣的是,Alistair Barr解释了Sam Altman为何“嘴硬”。

一方面,如果OpenAI实现了AGI,则有望逃离微软的巨额“控制”。OpenAI官网写道,一旦实现AGI,其所产生的知识产权将不受现有与微软的协议约束。

另一方面,Altman的AGI目标完全是一种愿景,就像马斯克对火星移民和自动驾驶汽车的执着——即便一次次错过预测时间,却总能点燃团队的热情。

因此,“2025年实现AGI”的宏大目标,无疑比“实现公司账单自动化”这类相对平凡的目标更带劲儿,尽管后者可能更具短期商业价值。

历史表明,技术的发展充满了不确定性,比如某些技术在经历长期稳定的进步后,可能会突然失效。最经典的例子是“摩尔定律”。该定律是半导体行业发展的一盏明灯,其“每两年翻一番”的预言,点燃了整个科技界的创新热情,并为英特尔等巨头的崛起奠定了坚实基础。

然而,麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究表明,摩尔定律的魔力正在逐渐消退。

比如,2014年—2019年,英特尔在14纳米和10纳米工艺的推进上遭遇了瓶颈,用5年才完成预期2年就能达成的目标。2019年,投资者意识到摩尔定律不再适用以来,英特尔股价下跌了约50%,至今未能完全恢复。

这些现象预示着,技术进步可能并非永恒,AGI的到来并非迫在眉睫。

挡在AGI前方的四座大山

近期,Scale AI 创始人兼CEO Alexandr Wang的演讲颇具启发意义。

他将现代AI时代分为三个主要阶段:

第一个阶段是研究阶段(2012-2018),由第一个深度神经网络 AlexNet开启,那是一个 AI 只能告诉你YouTube视频里有没有猫的时代。

第二个阶段是规模化阶段(2018-2024),由 OpenAI的Alec Radford训练的Transformer 和 GPT-1开启。在这段时期,投入资源增长了一万多倍,这带来了性能的巨大提升。模型能力也从默默无闻的GPT-1,发展到了博士水平的o1 模型。

第三个阶段将是创新阶段,由o1 模型开启,直到出现超级智能为止。我们拭目以待,看看这个阶段是6年还是更短。这个阶段的标志是,大家已经在模型上投入了 2000 亿美元,而事实上大公司无法投入比这更多的资金了。我们不可能在模型上砸出 200万亿美元。所以,从数量级来说,能继续规模化的空间已经很有限了。砸钱工作结束,才真正需要相应的创新来配合,增强推理能力和测试时间计算能力肯定是其中之一。

Wang认为,在此之前,迈向AGI路上存在五大挑战:数据墙、评估过拟合、Agent不可靠、芯片和能源、国际竞争等等。

挑战一是数据墙。Epic AI预计的时间点在 2027年到 2030年之间。但如果你和业内人士交流,他们会说比这更早。目前,有几个主要的解决方案。

例如,前沿数据,各种形式的合成数据,以及更高级的数据类型,还有企业数据。这些数据类型能让我们更有效地学习高级概念,比如推理能力、多模态、智能体数据。此外,具身智能以及其需要的现实数据将是一个重要领域。总之,绝大部分的数据仍然是私有和专有的,是被锁起来的。

比如,GPT-4 的训练数据集大约为0.5 PB。而摩根大通的专有数据集,超过了150 PB。他们只是众多大企业中的一个。还有大量的数据躺在那里,从未被用于任何主要的训练。

挑战二是评估。这在AI圈内经常引发讨论,但是圈外人不太理解其重要性。评估是我们用来衡量这些模型进步的标尺。目前,许多评估都饱和或容易过拟合,过拟合指它们有点被“游戏化”了;饱和是指模型在所有评估中都已经表现得非常好。这意味着研究可能变得更加漫无目的。如果你看过去几年的MMU、数学、GPQA 等测试,模型表现似乎达到了瓶颈。但这并不是因为模型没有变得更好,而是因为这些评估已经不够难了。为解决这个问题,我们需要建立更具挑战性的评估。

挑战三是Agent。尽管每个人都在谈论Agent,但它们还没有真正到来,而且不可靠。我们看到AI Agent与自驾中的“L1—L5”非常相似。这个类比非常贴切:L1是一个聊天机器人;L2 是你可以寻求各种帮助的助手。L3是指用于工作流程特定部分的Agent,你可以开始依赖它们;L4 可能会颠覆这一点,当Agent需要人类帮助时,会向你寻求帮助,更像是一种远程操作模式。首先,让模型在每个领域都具备推理能力,最终在几乎每个领域都能发挥作用。其次,建设能够实现远程操作Agent的基础设施。在未来,我们大多数人可能只是 AI Agent的远程操作员。

挑战四是芯片和能源。在未来五年内,这些数据中心所需的电力保守估计为100吉瓦,也许远远不够。这相当于 20 个芝加哥的能源消耗,需要投入数万亿美元的资本支出。在这里我没有解决方案,只是指出这个挑战。

结语

AGI被视为人类追求的“圣杯”。一旦实现,世界将被彻底改变。

如果AI出现了“神”的能力,它或许就成了“神”的化身。

无论是在2年后,3年后,抑或5年后,10年后,终有一天AGI会实现,现在留给人类“转型”的时间还有多少?

或许,预测未来不如预测“脆弱”。

正如Sam Altman所言:我从不祈祷求神站在我这边,而是希望自己站在神的一边。

如何让AI有利于我,是每个人需要思考的问题。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法