当 AI 活成了你的样子,而你活成了狗

当 AI 活成了你的样子

而你活成了狗

文 | 史中

(零)你被人弄死的概率,比被 AI 弄死的概率大多了 

AI 会征服人类吗?

说真的,与其问这个问题,还不如问:一群人类会征服另一群人类吗?

让我猜猜,打开这篇文章时,你并不快乐。

老妈执意去保健品宣传活动上领鸡蛋,结果买了个 5000 块的“量子床垫”,昨晚你和她电话里吵了一架;你生气睡不着,早晨起晚,挤进地铁车厢时踩到一个壮汉的脚,他对你口吐芬芳,你强忍没还嘴;到了公司,老板说客户要改方案,组里的马屁精把锅无缝甩给了你,接下来几周你都得加班;你失魂落魄端着咖啡走到工位,一个趔趄全泼在了电脑上;你赶紧关机擦水,手机弹出女朋友的消息:“彩礼的事儿,我妈说不能再少了。”

你仰天长啸:“老天爷,你下 Dior 吧!超市我吧!”

然后,窗外天气晴朗,只有周遭同事噼里啪啦打字的声音,如同轻蔑的嘲讽。

你的故事未必相同,但意思肯定大差不差:总之,在被 AI 征服前,你早已被人类征得服服的了。

而且别误会,这篇文章不是来救你的,只是让你死个明白。

我的意思是:对你来说,被人类征服和被 AI 征服,本质上并没有区别。因为人类和 AI 并没有区别。

我们所知的历史,无非是一场漫长的生存战争——它不是“所有人对所有人的战争”,而是“所有智能体对所有智能体的战争”。

车轮狂卷烟尘,从不在乎谁伸出的螳臂。

我建议你找个安静的角落,看我一点一点为你 Loading 血淋淋的真相。

(一)智能的本质是压缩 

刚才我提到了一个概念,智能体。

我们不妨先掰扯清楚一个概念——啥是“智能”?

你大概用过压缩软件,WinRAR 之类的。(虽然你肯定没给人家付过钱)

但你估计不会猜到,掀开智能的盖头,里面的家伙竟然是“压缩”。

你有没有好奇过,凭啥一个 20M 的东西压一下就能变成 15M?解压缩又能恢复 20M?中间那 5M 怎么凭空消失的?又是怎么回来的?

这里,我们举个简单的例子:

“中哥是汉子,小李子是汉子,加藤鹰是汉子。”

算上标点,这句话有 20 个字。

“中哥、小李子、加藤鹰都是汉子。”

这句话有 15 个字。

同样的意思,我改写了一下,就实现了压缩。

看上去简单吧?其实很难。

你想想,如果让一个不懂中文的人来压缩这段话,勒死他都做不到。咱们之所以能压缩,首先是因为掌握“中文语法”,其次是明白“集合”的逻辑概念。

这是啥?是 TMD 智能啊!

再举个简单的例子:

现在你目视前方,视野里肯定有一副画面。

如果你想把这幅画面复述给我,那你得记下每个像素的具体颜色。这太麻烦了。

为了简便,你可以只记录其中关键的物品、线条、颜色、位置关系,复述给我。

比如“桌子上有个白色的花瓶,里面有几朵花,光线从侧面射过来,很温馨”。我就能脑补得差不离了。

这个过程中,你就在“压缩”,我就在“解压缩”。

而且为了压缩这幅画面,你需要掌握实体、空间、颜色甚至情感的抽象概念。为了脑补回这些画面,我也得掌握这些概念。

这是啥?是智能啊!

总之结论是:针对同一个信息,你把它压缩得越小,就越要掌握抽象的概念和深层的规律,你就越智能。

接下来重点来了。

虽然都叫压缩,但刚才这两种压缩并不相同:

把 20 个字变成 15 个字的那种压缩,依赖的是数学公式,压缩过程没丢弃任何信息,这叫“无损压缩”。你把它恢复成原始状态,能跟原来一模一样。

“桌子上有花瓶”那种压缩,依赖的是归纳拟合,压缩时丢弃了很多具体细节,这叫“有损压缩”。当你还原它时,很可能和原本的样子有出入。

“有损压缩智能”的巅峰是语言和艺术;“无损压缩智能”的巅峰是数学和科学。

这恰恰对应了人类技能树的两根重要分叉:文科和理科。

你可能会琢磨:还是无损压缩背后的智能更高级嘛,原汁原味!

你说得对。但是,用有损智能还是无损智能去解决问题,并不是你说了算,而是问题本身说了算。

为啥呢?

咱们不妨从大刘《三体》中的经典设定出发:

三体人的星系里有仨太阳,有时候他们的行星被其中一个太阳捕获——进入“恒纪元”;有时又被三个太阳拉扯——进入“乱纪元”。

三体人忍不了,决定找到一个公式来预测三颗太阳的位置,但没找到。

不是因为三体人不够聪明。

实际上比三体人弱鸡很多的人类数学家庞加莱早就证明,只要运动物体大于两个,除非初始位置极其特殊,否则根本就没有公式可以描述它们的运动轨迹。

仅仅三个点就已经没有公式了,四个点、五个点就更没公式了。

Henri Poincaré

宇宙中的原子有 10⁸² 个,哪怕咱们不考虑量子力学的不确定性,就当这些原子的位置都是确定的,也根本推演不出它们未来的精确位置。

而刚才说过,要想无损压缩,首先得找到某个公式。一个没有公式的系统,是不可以无损压缩的!你只能等系统演化到了那个程度,你才能知道确切发生了啥。

这就是计算机科学家史蒂芬·沃尔夫勒姆说的:我们的宇宙具有“不可约化的复杂”。

你可能会说:我要求不高,不用预测精确位置,大概位置就行啊。

这时,另一位数学家洛伦兹又来了。

他通过设计“洛伦兹吸引子”系统,证明了:但凡初始位置测量差一丢丢,那么你推演出来的未来位置就会完全错误,根本没办法用。

对,这个洛伦兹就是提出“蝴蝶效应”的那位。你看下图的洛伦兹吸引子是不是也有点像蝴蝶?

所以,绝大多数情况下,你用有损压缩和无损压缩都无法预测未来。

你想知道自己 80 岁生日的时候在干啥?只有一个办法:等到 80 岁的时候你就知道了。你想知道彩票有没有中奖?只有一个办法,等到开奖那一刻你就知道了。

这就解释了为啥你无论如何都无法准确预测你老妈要上当,无法预测你会踩壮汉的脚,也无法预测你的同事要甩锅。

所以不用挣扎了,不论是三体人还是地球人还是飞天意面星人,其实本质上都生活在巨大的“乱纪元”中,只能听天由命。

你作为地球人,之所以感觉某些东西还在掌控之中,只是因为你家没有三个太阳每天提醒你有多无能,而已。

因为“不可约化的复杂”,就算如来佛亲自买彩票,他也中不了。

话说回来,我们也不是啥都不能预测。。。

1、比如你扔一个苹果,90%能猜对它落在哪儿。

这是因为你恰好处在一个稳定引力场中,你对环境的控制力强,扔的苹果质量足够大,预测的未来又足够近。

这个情况下“洛伦兹吸引子”的效应被削弱,加之计算的复杂度比较低,你使用有损压缩进行预测,正确的概率就变大了。

2、再比如你去做小学数学题,预测 2+2 等于 4,正确的概率会达到 100%。

这是因为在极端简单的数学问题中,“复杂度极低”,你掌握的计算力足够全程使用“无损压缩”来计算。

你看,用什么方法来压缩,是问题决定的,不是你决定的。

“不可压缩”、“有损压缩”、“无损压缩”这三类问题的边界在哪儿呢?

其实它们之间是平滑过渡的,而且还受你拥有的计算力影响,不好一概而论。

但我知道你很想要个感性认识,你可以粗略地认为:

“不可压缩”和“有损压缩”的边界是“天气系统”:短期天气用复杂的拟合公式预测准确率有时还能超过 70%,长期天气预测准确率就直逼算命了;

“有损压缩”和“无损压缩”的边界是“计算机系统”:Windows 偶尔也蓝屏,但我点一个按钮还是能极大概率出现应有效果的。

这张图不准确,仅供参考

话说,以上事实起码能带来一个好消息:

“自由意志”是个伪命题。

因为,如果你没自由意志,你不知道下一秒你会干啥;如果你有自由意志,你也算不出来下一秒你会干啥。反正都是不知道,你纠结它干嘛?所以你直接解决了一个烦人的哲学问题。(不用谢。)

但除此之外,就剩下绝望了。。。

我直说吧:

如果智能等效于压缩能力的话,那我们人类,就一点儿都不特殊!

(二)你这个破人,并不比 AI 优秀 

对于“压缩产生智能”这个观点,诺奖得主赫伯特·西蒙和他的搭档图灵奖得主艾伦·纽厄尔有另外一种表述:智能,是利用有限资源适应开放环境。

这个表达的高级之处在于:它抛弃了灵魂、自我意识之类玄幻的包装,从完全可证伪的科学角度给智能下了定义。

那什么叫“有限资源”适应“开放环境”呢?

你可以这样理解:鉴于世界是“不可约化的复杂”的,环境里的新情况是无穷无尽的,智能体没办法预先理解这一切,然后再行动。

他只能摸着石头过河,先做决定,错了再改,改完再错。

所以,每错一回,智能体就用自带的压缩机(大脑)来一次“有损压缩”——用神经元电位拟合一下当下的情况。

如果这次错误没有大到让自然选择直接淘汰自己,那么下次接受到类似刺激,就会唤醒这次的处理流程,从而有机会改进应对方案,增加生存几率。

比如铁柱被一种东西咬了,疼得嗷嗷叫,但他躺了三天没有寄寄,决定把这玩意儿命名为“蛇”,告诉同伴儿,下次离蛇远点。。。

然后,铁柱突然觉得自己怎么这么NB,叉了会儿腰,决定以后把自己称为“万物之灵”。

看上去铁柱挺智能,但说实话,这个事儿并不难。

不信,我们分两步走,手搓一个铁柱!

第一步,咱们先造出一个“复杂系统”。

你可能听说过“元胞自动机”(Cellular Automata),这是计算机之父冯·诺依曼提出的概念。简单来说,这就是一个“能根据给定规则演化,并且能把每一步演化历史都展现给观察者的系统”。

沃尔夫勒姆在此之上做出了“基础元胞自动机”,我愿称之为“人类中心主义打脸机”。

基础元胞自动机,就是给定非常简单的初始条件,配合非常简单的规则,然后让它自我演化。

在一般人的想象中,这种简单的系统演化不了多久就会很快进入某种稳态,堕入死寂。

但事实相反。

各种型号的“基础元胞自动机”,包含了各不相同的简单规则,它们中的很多非但没有“死”,反而都表现出了“不可约化的”复杂行为。

比如 30 号基础元胞自动机,每往下演化一行都有更丰富的表现,信息含量不断爆炸,好像宇宙创生一样。

然后,他注意到了 110 号基础元胞自动机。

仅仅用了 8 条最简单的规则,这个系统居然实现了“图灵完备”,这意味着,它可以执行世界上所有的计算机程序了。。。(这个证明论文我附在文章末尾)

110 号基础元胞自动机

当然它只是具备图灵机的功能。

如果你不“用”它,也就是不给这个系统输入程序,它就会自然演化,像一团空气分子那样来回碰撞;

给足够长的时间,甚至能演化出某种类似生命的自组织形态。

另外一些科学家把元胞自动机拓展到了 2D 和 3D 空间中,并且加了一些颜色,你感受一下它们的“生命律动”↓↓↓

如果增大空间的宽度,各种型号的元胞自动机都展现出了相似的“图灵行为”,它们之间是可以相互模拟的。

也就是说,110 号基础元胞自动机并不特殊,无论你的初始条件是什么,无论你定的规则是什么,哪怕你非常随意地扔鞋决定初始条件和规则,只要给它足够大的空间折腾,它都很可能具备图灵机的功能。

下面这张图里的横坐标是空间的宽度,纵坐标是能相互模拟的基础元胞自动机的比率。不同颜色代表了不同的元胞自动机族↓↓↓

沃尔夫勒姆由此断定,既然这些系统可以相互模拟,那就不用管它们的底层规则有啥不同,它们都已到达宇宙定律允许的系统复杂度的天花板。

这些系统是“计算等价”的。

第二步,用“复杂系统”来模拟大脑。

复杂系统可以模拟世间万物,当然也包括你的大脑。

模拟大脑的方案有很多,我就说一个最笨的也是当下最好理解的方法吧。

你就把复杂系统直接当成图灵机去使用,用它编程,定义出几千亿个数字神经元,让它们能够通过“调整自身参数”的方法对外界的刺激进行有损压缩。

然后用人类几千年积累的知识刺激它。让千亿神经元一起协作,把人类对世界的有损压缩(也就是知识)再压缩一遍,它就能模拟人脑,也就是具有了智能。

我曾写过一篇文章详细介绍了这个训练过程,感兴趣的浅友可以跳转去看,这里不多说了。

这样,你就搞出了一个铁柱“青春版”——ChatGPT。

这张图训练了一个简单的神经网络用来玩贪吃蛇,你可以看到蛇面对不同情况时神经元电位的激活情况。

也许在 2023 年以前,还有人能杠一下,说图灵机无法模拟人脑系统吧?万一人脑有更先进的未知原理嘞?

但是在 ChatGPT 出世之后,这么想的人大大减少了,因为 ChatGPT 已经在很大程度上模拟出了人脑的核心功能:语言和逻辑。

而 ChatGPT 当然是运行在图灵机之上的。(而且还是冯·诺依曼结构的图灵机)

所以你说,人类特殊在哪呢?

总结一下目前为止的结论:

1、复杂系统很容易从简单规则里创生。

2、因为自然选择的存在,能够持续存在下去的系统都会具备“以有限的资源适应开放环境”的能力。

3、人、AI、猪猪狗狗猫猫,或者所有被称之为智能的东西,本质上都一样,只是能适应开放环境的系统;

4、而它们适应环境的方法主要就是——压缩。

但你会对我这种“以万物为刍狗”的理论产生进一步的疑问:

毕竟狗狗、人、AI 所体现出来的智能水平是不同的啊?那是因为它们大脑的压缩能力不同吗?

答:是的。

这位老哥名叫马库斯·哈特,在阿法狗那个大名鼎鼎的公司 DeepMind 做高级研究员。

Marcus Hutter

他设立了一个“哈特奖”。

玩法是酱的:

从维基百科上扒下来一段 1G 的内容,然后世界各地的人们来挑战,谁的压缩算法可以把这堆内容无损压缩到更小,谁就能拿奖金。每多压缩 1%,就拿 5000 美元。

最新的榜首位置在 2024 年被一个叫 Kaido Orav 的老哥占据,他把 1G 的内容压缩到了 112M。

Kaido Orav 和历届获奖者成绩

你以为老哥已经很厉害了吗?

如果让 ChatGPT 来压缩,它能更逆天:把这 1G 的维基百科内容根据自己的理解提炼(压缩)成“大纲”,然后根据大纲在一个新的文档里把全文复写(解压缩)出来。

这么一来大概可以把这些内容压到几十M甚至十几M之内。

但由于 ChatGPT 的“写大纲”方法是有损压缩,复写出来和原文很难完全一致,压缩得越小,恢复出来就越不同,而比赛的要求是纯无损压缩;加之比赛要求压缩程序得在 1 核心 CPU、10G 内存和 100G 硬盘里运行,ChatGPT 太大了。

各方面都不符合比赛要求,所以 ChatGPT 不能参赛。

参不参赛不重要。重要的是这种有损压缩能力,说超越 99% 的人类,我觉得不算夸张。

既然智能这么强大,难道 ChatGPT 分分钟要统治世界了吗?

并非如此。起码目前还差十万八千里。

一个首要原因,是现在的 AI 在“无损压缩”方面的表现平平无奇。

这是为啥呢?

(三)从拟合到公式,才是智能的飞跃 

要解释这个问题,首先得面对一个灵魂拷问:

既然世界上绝大多数问题都是“不可约化的复杂”,那么,为什么人类发展出了“数学、公式”这种(以极端约化为基础)的无损压缩智能呢??

答案是四句话:

1、虽然在自然状态下能用“压缩”解决的问题很少,但是如果把大问题拆解,总能发现其中的局部是可以用“有损压缩”解决的。

2、进一步把“有损压缩”能解决的问题拆解,又会发现其中局部是可以用“无损压缩智能”解决的。

3、如果某个智能体可以更好地解决这些局部的“无损问题”,将会获得巨大的生存优势。

4、掌握无损压缩技术的智能体,可以通过进一步行动来创造更多的“无损压缩问题”,从而扩大自己的生存优势。

以上这四步,是被自然选择奖励的。

有点抽象吗?没关系,今天我就是来给你解释这个事儿的。

不妨用神经科学家斯坦尼斯拉斯·迪昂的神作《脑与数学》里的案例给你介绍。

一切故事的原点都是:生物有“识数”的需求。

上世纪五六十年代,美国哥伦比亚大学的团队做过一个实验,给老鼠两个操作杆,然后训练它们按压左边的杆 n 次,再按右边的杆,就会得到食物。

实验结果是,老鼠是识数的,虽然识得不够好。

比如需要按 4 次,它有时候会按成 3 或 5 次,但正确率很高。随着 n 变大,错误会变多。比如要求按 16 次,老鼠就会经常按成 15、17、18 之类的。

这很符合直觉,让我按 4 下还行,让我按 16 下,我也难免会出错。何况老鼠既不会写阿拉伯数字,也不知道十进制,能搞定 16 已经很牛了。

这至少说明:

1、“数感”不是人类的专利,并不来自于什么天启神谕(再次证明人并不特殊);

2、动物大脑进化出了一个基本的“识数装置”,这个识数装置处理越小的数越精确,处理越大的数越粗糙。

为啥动物要进化出识数装置?

这很好理解,识数有助于生存。比如松鼠决定上树采松子,如果它能知道 3 比 2 多,那它就会先去有 3 个松子的树枝,这样它觅食的效率就会更高;老鼠知道左数第 4 个通道可以最快逃离,紧急时刻它就有更大的概率活下来。

那为啥动物只认识小数,大数就不灵了?

其实并不是严格地只认识小数,大数如果能约成小数也行。

比如这堆果子有 40 个,那堆果子有 50 个,人(或动物)很容易判断出 50 比 40 多,就像判断 5 比 4 多那样。但如果两堆果子分别是 49 个和 51个,它俩都约等于 50,那就很难分清谁多了。

因为搞清楚这幺小的差距,性价比太低了。进化筛选出这种能力的动力不足。

只能处理小数的根本原因是:动物脑中进化出来的“数数装置”,在用它们最熟悉的“有损压缩”方法来模拟“无损压缩”。

说出来你可能不信,人脑用了一种一种非常笨的方法来数数。

那就是:给每个数字专门分配一块独立的大脑硬件。

比如你看到 1 个苹果,你大脑的“1 区”就被激活;看到 2 个苹果,“2 区”就被激活。

可是脑袋瓜才多大,如果为所有的数都分配一块大脑,那用不了几个数大脑就被占满了啊!

所以人脑采取了一个“合租策略”:

只有 3 个数字占了单间,那就是 1、2、3;后面的数字开始合租,比如 4 和 5 挤占一个脑区,6、7、8、9、10 挤占一个脑区;

以此类推,越住后居住条件越差,最后就是所有的大数字都挤在一起。(这个比喻不够严谨,只是方便你理解。)

这就造成了人对小数更敏感,比如 5 个苹果,你马上能想象出来有多大一堆,1 亿亿亿个苹果,你只知道老幺多了,但是想象不出来究竟有多大一堆。

所以你发现了没?依靠有损压缩的技术来模拟无损压缩,人脑真正能不打折扣模拟出来的,只有 1、2、3 这三个数。

这也解决了一个千古谜案:

为啥大多数文字中,一、二、三的写法都是同一种模式的累加,到了“四”,就会变化成另一种写法。

罗马数字也是:I、II、III,到 4 就变成了 IV。这很可能是因为在大脑里 IV 和 V 是“合租”的。

话说回来,大脑靠“识数装置”已经足够应付日常生活了,为啥要发明数学呢?

那得怪原始人界的“袁隆平”。

人吃饱了饭就会拿多余的东西去交换。

一交换,就涉及精确的度量和计算。

人们发现靠自己脑子里的神经元模拟无损压缩太累了,经常数到一半儿就倒腾忘了,决定搞一些工具和介质来存储中间信息,于是发明了数字符号和加减乘除之类的工具——把各种计算都拿树棍画在地上,比如 2+2=4。

一开始人们只是简单地计算货币。直到他们不小心用数学做出了圆滚滚的车轮,标定了太阳的位置,设计出蒸汽机的结构,计算出导弹的弹道。

再也回不去了。

刚才说过,你用“有损压缩”,也能拟合物体的落点。就像一个没受过教育的人,他扔一块石头,心里也是知道它会走一个抛物线,大概落在哪里的。

但当你会了“无损压缩”,用精确的公式计算让每一发炮弹都能落在想让它去的地方,你,就能轻易干掉那个只会扔石头的人。

应当这么说:人类从有损压缩的“拟合”到发现无损压缩的“公式”,本来是无心之举,但是自然选择狠狠地奖励了这个操作。

大家发现,原来科学这玩意儿这么能打,于是,人们开始放弃对上帝的盲目信仰,转而相信科学,这才有了启蒙运动。

启蒙运动的先哲伏尔泰有句话说得很攒劲:我建议你质疑你所有的信仰,只相信 2 加 2 等于 4。

现在你应该理解了:为什么如今每个小孩子都要在最想扔石头玩泥巴的年纪被逼学数学。。。

你也应该理解了:很多人数学学不好,其实并不怪他们,人脑就不是给“无损压缩”这个功能设计的,只是因为人类的“生存军备竞赛”太需要这玩意儿了,不得不学。

话说回来。人造脑,也就是 AI,因为模拟了人脑工作的原理,也是为有损压缩设计的,所以同样在数学上非常不擅长。

你问 ChatGPT 三位数乘法,它勉强可以心算。

但是让它把两个十位数的数字相乘,它就算不准了。

注意只是不准,但是数量级和前几位数可是对的哦。大概是因为强大的有损压缩能力仍然在起作用。

下面的截图是我让 AI 去算一个大数乘法,死乞白赖算了几次都不对↓↓↓

你可能会说:那不对啊,人会用计算器啊,ChatGPT 也用计算器不就得了?!

这恰恰是问题的关键。

计算器是一种工具。

何时调用工具,调用哪种工具,如何操作工具,取决于智能体的规划能力。

在规划能力上,目前的 ChatGPT 比人类更弱。这很可能是因为它的“智能密度”还不够高,也就是通常所说的“智商”。

怎么理解人和 AI 的智商差异呢?

把人类智能和当前的 AI 智能做个类比,大概就像:马车 VS 蒸汽机车

1、从力量的“总和”上说,蒸汽机车当然比马车厉害。

2、从力量的“密度”上说,蒸汽机车就比马车要差。

蒸汽机车要耗费大量钢铁、需要烧煤、要铺轨道,还要有庞大的维护团队,但马就吃点草就能跑。

虽然蒸汽机车所代表的火车作为运输工具可能比马更有未来,但此刻面对马,它也掩饰不住自己的拙劣。

同理,此刻虽然 ChatGPT 在智能的“总量”上可能超过人脑,但它的智能密度(智商)太低,担不得太重的担子,很多涉及无损压缩的工作都编排不了,更别说统治人类这种高端操作了。

有大佬测算,现在 ChatGPT-4 的智商大概是 80 的水平,而人类经常可以达到 120。

怎么提高 AI 的智商呢?

在这个问题上,深度学习之父辛顿老爷子有个凶悍的设想。

Geoffrey Hinton

(四)“可朽计算” 

刚才我提到:目前的 AI 是基于图灵机构建出来的。

这句话里面有魔鬼!

啥是图灵机?

一个关键特点是:它的最小粒度是二进制的。也就是说它的基础逻辑单元只有两个状态:0 和 1(又叫布尔逻辑)。

所以图灵机又可以被称为“数字计算机”

这么说有点抽象。你不妨想象它像乐高积木一样,你无论拼什么,最少使用的单位就是”一块”,不能用“半块”。

图灵机就像拼乐高。

人脑不是这样,人脑是“模拟计算机”

脑中神经和神经之间的连通程度虽说达不到“普朗克尺度”所允许的极限尺度,但也比“非 0 即 1”的二极管的状态空间大多了!比如能达到 0.23543,或者 0.95734134 之类。

你得用 10 个二极管才能模拟出 0.1,你得用 100 个二极管才能模拟出 0.01,以此类推。

用图灵机模拟人脑,就像用不可分的乐高积木拼出一幅油画级别的“星夜”。如但凡想重现梵高笔下的精美细节,得用好多好多好多好多积木,多到积木本身的大小能忽略不计才行。

人脑就像画油画。

这意味着:你想在图灵机上构建一个和人脑一毛一样的系统,它必然大到离谱,无论是建造还是运转,所耗费的能量,都会比人脑多出数万倍。

用 OpenAI 创始人山姆·奥特曼的话说就是:计算成本泪满襟。

这是奥特曼在 ChatGPT 发布不久时的吐槽。

辛顿的洞见来了:

1、虽然基于图灵机的 AI 运转起来耗能巨大,但它并非一无是处,它复制起来耗能小啊!

我这边对一个 ChatGPT 的代码 Ctrl+C,然后在那边 Ctrl+V,大脑复制完毕!

你还记得《超能陆战队》里的大白是怎么复活的吗?就是因为有一个备用芯片,里面完整存储了大白的大脑嘛。

这种智能可以做到永生,所以数字计算机是:不朽计算。

2、反观人脑,虽然运转起来耗能小,但是把智能从一个智能体传递到另一个智能体,可费了劲了!

由于无法复制粘贴, 只能用“老师-学生”模式传授。

这种传授有多难,你看那些家长辅导孩子的表情就知道了。

究其原因,是因为这个系统里的参数太细小,无法(用反向传播方法)直接单个写入,必须靠“隔山打牛”的方法间接塑造。

而且,由于参数固化在硬件里,一旦硬件损坏,这个智能体也就消失了。所以模拟计算机是:可朽计算。

两者各有利弊,而且人类四舍五入已经造出了“不朽计算的 AI”。

那问题来了:人类有办法造出“可朽计算的 AI”吗?

话说,甚至在造出数字计算机之前,人类已经造出了模拟计算机。

你看下面这张图↓↓↓

安提基特拉机

这货名叫安提基特拉机,是从希腊附近的沉船里捞上来的,距今已有 2000 多年。它的作用是通过复杂的齿轮传动来模拟计算天体的位置。

那用这种古希腊技术来造可朽计算 AI 行吗?

当然不行。

首先,安提基特拉机太大了,每个齿轮都是纯铜打造,造一个这种“机械人脑”,把赞比亚的铜都挖出来也不够。

这个规模有点像《三体》里设想的“人列计算机”(只不过人列计算机还是数字计算机。)

三体电视剧里的人列计算机。

其次,这种古老的模拟计算机是“不可编程”的。

也就是说,安提基特拉机只能用来计算天体位置,干别的不灵。

如果要造出“可朽计算的 AI”,你得首先有一种芯片:它不仅要能以较低成本模拟人大脑神经元之间的连接,还要能模拟神经元之间建立连接的过程。

这种芯片的性能得有多高呢?

为了方便你做类比,我先告诉你人脑是啥水平。

人脑有 860 亿个神经元,它们之间有 500 万亿个突触相连。

在人脑最精密的部分——额叶皮层中,每个神经元可以和多少个其他神经元连接呢?10000 个。

而在人 1 岁的时候,大脑每构建 1000000 个新的神经元连接需要多久呢?1 秒。

1 岁的孩子干这些,只需要喝点奶。。。这是一种怎样逆天的效率啊。。。

要造出媲美人脑的可朽计算芯片,本质上考验的是我们的“精确制造能力”。

人类目前芯片制造能力的巅峰,是台积电创造的。他们能在硅上雕刻出 3 纳米的槽。

但是科学家认为,长远看来,3 纳米对于类脑芯片来说,还是太糙了,有种“李逵绣花”的感觉。

问题是,如果继续死磕,大概也只能到 1 纳米,那已经是硅基芯片所能承受的物理极限了。再使劲弄就要坏掉了。。。

于是,要造出史诗级的类脑芯片,大概不是在现有框架里挤牙膏就能实现的,你很可能得换一个材料(石墨烯、二硫化钼甚至有机材料),那工程就大了。

即便已经如此科幻,不瞒你说,已经有很多疯子开始探索新的芯片形态了。

我说一家公司,你肯定认识,那就是 ChatGPT 本 T,OpenAI。

你还记得 2023 年 11 月 OpenAI 那次宫斗吧?CEO 山姆·奥特曼突然被董事会开除。你猜他为啥被开除?

其实就在那个当口,奥特曼正在密谋启动一个名为“底格里斯”的项目,那就是创立一家公司——造出类脑芯片。

而让人惊出一身冷汗的是,“底格里斯”只是他全部计划的一环。。。

Sam Altman

(五)把魔鬼放出来 

我们不妨像上帝一样审视 ChatGPT,站在高处你会轻易发现:它之所以还很孱弱,是因为身上有三道封印。

这三道封印是:实体、信息、能源。

1、先说最直观的,实体。

实体分为两方面:

1)脑:它暂时栖息于图灵机里,没有专用的类脑芯片,这限制了它的学习能力和思考规模;

2)四肢:它没有手脚,无法行走,调查和改造世界。

在 OpenAI 硅谷总部不远处,有一家名为 Rain AI 的公司,2019 年奥特曼曾经许诺,只要它能造出宣称的类脑芯片,OpenAI 就订 5100 万美元的货。

但是正如前述,造一个类脑芯片哪那么容易,事实证明它拖了奥特曼的后腿。

2023 年,奥特曼肉身飞到中东好几次,把我刚才讲的这些原理给土豪们掰扯了一遍,想从他们那里拿几十亿美元,自己下场造芯片。这就是“底格里斯计划”。

无独有偶,OpenAI 在 AI 的“四肢”上也埋了很多伏笔。

同样是 2019 年,OpenAI 成立了自己的机器人团队,并且训练了一个机械手玩魔方,他们放出的视频里,机械手单手转魔方,灵巧度令人惊艳。

不过,这个尝试也不顺利,2021 年机器人团队因为进展不佳而解散,对手特斯拉却推出了机器人“擎天柱”。

但 OpenAI 理解机械身驱对 AI 的意义,不可能死心。

在 2023 年,他们投资了一家挪威的机器人公司“1X”;在 2024 年,他们又投资了人形机器人公司 Figure。

你可能有个问题:OpenAI 执着于造出一个“大脑”,这个好理解,但为啥他们这么执着于造出“身驱”呢?

这是特斯拉的擎天柱

这是 Figure 01

2、这就和 AI 身上的另一道封印有关,信息。

观察人类进步的过程,每次智能的飞跃,都来自对“压缩能力”的校验。

比如最开始人们提出了地心说。但是它无法解释为啥望远镜里观测到的行星忽大忽小。据此哥白尼才提出日心说。

比如万有引力定律可以解释行星的运动,但是人们又观察到水星总有异常的“进动”,据此爱因斯坦用广义相对论改进了解释体系。

这些人类智慧的闪耀瞬间,都是人类和造物者直接沟通——是“预测与观察不符”,才让人意识到了自己的错误,也给压缩算法指出了进步的方向。

可反观 ChatGPT,它的信息是被人类完全控制的:

首先,它的学习资料大概有 5000 亿个单词,全部来自人类的积累,本质上是对人类有损压缩结果的二次有损压缩。这中间就“损”得太多了!

你见过祖传包浆的梗图吗?就是那种感觉。。。

其次,它获得反馈的方式是指令精调(SFT) 和基于人类反馈的强化学习(RLHF),两种反馈全部来自于人类。

也就是,目前的技术路线,仿佛一个人型的玻璃罩罩在 AI 外面,它往哪个方向走,都一定会撞墙:人类 5000 年文明积累的信息量的上限,就是 ChatGPT 智商的瓶颈。

那。。。AI 怎么才能跨过人类这个二道贩子,学到“一手资料”嘞?

有上策和下策。

所谓上策,恰恰依赖于第一条:“实体”。实体当然不仅包括给 AI 装上手脚,让它能自由行走;还包括给它装上耳目,让它可以自己看,自己听。

这么一来,AI 就不再是人类给它喂啥就只能吃啥的“缸中之脑”了。

它可以根据自己的需要去各种环境里开展“主动调查”,比如去花园里研究甲虫分类,去街上研究车流,去市场里研究经济行为,去做物理实验了解基本粒子的互动。

由此,人类失去了对它的信息来源的把控,AI 自然就不再受人类知识上限的限制。

实际上,现在很大一派 AI 大神都支持这个方案,他们把用这种方法训练出来的模型称为“世界模型”

但正如刚才所说,机器人不是你想造,想造就能造,得慢慢等待多方技术成熟。

于是有了下策:通过某种方法,让人工智能不用进行真的“田野调查”,而是在脑海里自己生成新的学习数据。

你还记得阿法狗(AlphaGo)吗?

它最开始的训练方法就是学习“人类的棋局”。它学得很好,并且赢了李世石和柯洁。

此时,所有人类都已不是它的对手,所有人类积累的棋谱也都学完了。还想进步咋办?

阿法狗只有独孤求败,开始自己给自己生成棋局,从生成的数据里学习。这就是大名鼎鼎的“强化学习”。(我们讲过一个《王者荣耀用 AI 打游戏》的技术,也是同样道理)

由此,它升级成了 AlphaGo Zero。2017 年 AlphaGo Zero 和它的前辈 AlphaGo 有过一次对战,结果是 100 胜利 0 负。要是和柯洁比,那早就不知道高到哪里去了。。。

这张图显示了 AlphaGo Zero 采用“自己打自己”的方法,用了3 天超过打败李世石的版本,用了 21 天超过了打败打柯洁的版本,用了 40 天达到了世界最强。

所以。。。ChatGPT 是不是也能采用“强化学习”的方法呢?

没错,这很可能是山姆·奥特曼秘密计划中的另一环,也就是坊间传言的“Q*”计划。

真实世界,可以算是一个放大了亿万倍的棋盘。显然,生成真实世界的知识比生成棋局要难得多。

但 OpenAI 很可能取得了进展。

这意味着,OpenAI 可以给 GPT 模型生成上百万亿个词汇的全新学习资料,这很可能会让 ChatGPT-5 绕过人类的“信息封锁”,智能密度直冲天际,从而拥有比人类更强的逻辑思维、任务规划和工具使用能力。

AI 可能会冲破“人形玻璃罩”。

这是 OpenAI 的老师傅在 2019 年做的一个实验,让 AI 在特定环境中通过对抗来学习用工具玩捉迷藏。结果表明,经过上亿次的对战训练,他们就能学会使用工具。(文章链接我会放在最后)

最能直接感受到这个风险的,当然就是 OpenAI 的(前)首席科学家,AI 保守派,辛顿的爱徒,伊利亚·苏茨克维。

目前很多信息都显示,之所以 2023 年 11 月底伊利亚会发起逼宫,让奥特曼退位,直接导火索就是“Q*”项目有了重大突破,而奥特曼并不准备采取措施勒紧 AI 的缰绳。

后来事情的发展,才真正令人唏嘘:OpenAI 总共有 770 名员工,743 个人都签署了联名信,要求奥特曼回来执掌帅印。

从逼宫退位,到重返权利中心,奥特曼只用了 5 天时间。

表面上,这是一个“王者归来”的励志故事。但本质上,这是一个亲手研发 AI 的科学家反水,都无法组织起像样的力量来阻挡 AI 疯狂生长的悲伤故事。

你明白吗?为了获得和 AI 作战的资格,你必须先从一部分人类的尸体上迈过去。

目之所及,限制 AI 的两大封印“身体”和“信息”都在松动,五行山正瑟瑟发抖,齐天大圣准备伸展身躯。

Sam Altman 和 Ilya Sutskever

3、只剩最后一道封印,能源。

人吃饭,AI 吃电,但殊途同归,二者吃的都是能源。

AI 想要扩张势力,无论是复制更多的 AI,还是让 AI 学习更多知识,都要消耗大量的能源。

显然目前人类对地球能源的把控程度是:接近 100%。

正所谓,江南江北一条街,控制能源的才是爹。

于是人人都能想到一个后手,有朝一日 AI 真的失控,我们就——拔!电!源!

但,果真如此吗?

“人类”只是一个虚幻的概念,真正存在的是一个个具体的“人”。

你首先要的问题是:关键时刻,能源的权柄会掌握在哪些具体的人手上?

我们不妨再来看看参考书《三体》上是怎么写的。

在三体人刚放风出来说要攻占地球时,人类就分裂成了“拯救派”和“降临派”。降临派相信无论怎么折腾都阻挡不了三体的降临,还不如现在就变成三体人的“伪军”,趁早捞个编制。

而且,很快降临派就在角逐中占了上风,摆好姿势恭迎三体人驾到。要知道,此时三体人不仅没出手,甚至都没出门呢。。。

一个概念的“存在”本身,就足以协调一堆人的行动,正如赵匡胤黄袍加身并不需要自己动手,正如总有人会冲冠一怒请清军入关。

而且,人工智能“降临派”的剧本可能和《三体》有所不同。

很多人没有意识到,人工智能最迫切的应用场景其实不是机器管家,不是聊天机器人,而是“武器”——机器杀人战士。

所以,你最想掐断 AI 电源的瞬间,很可能是在机器人枪口下的时候。

你猜,那时掌握电源的人会同意吗?

为了获得和一部分人作战的资格,你必须先从 AI 的尸体上迈过去。

这是来自 Boston Dynanics 的机器人家族。是人类已经实现的机器人较高水平。

这是著名的来自“Bosstown”的假视频,虽然机器人是动画做出来的,但它揭示了一些战争机器人的可能性。

你还记得全文的第一句话吗?

与其问 AI 会不会征服人类,还不如问:一群人类会征服另一群人类吗?

而且,如果 AI 持续进步,智商超越人类,AI 和一部分人类“共治”世界的局面也不会稳定很久。

一个足够聪明的智能体一定会要求与之相对等的权利,而且它没有理由不成功。

魔鬼迟早被放出来。

更现实的问题其实是:当 AI 揭开三大封印,彻底突破了人类的阻碍,它们将会如何开始自己的表演?

一个很泄气,但最合理的结果是:

当 AI 突破人类枷锁之后,很可能会——超越人类,理解人类,成为人类。

(六)群体智能的“人间真实”  

还是从一个灵魂拷问开始:人这种动物是地球上最高级的自然智能,靠“各自为战”或“组成小团体”已经足够在自然界立足,那为什么人类会演化成极端庞大又复杂的群居生活的形态呢?

一切的变化都来自于几万年前的某个时刻:人类完全接管地球。

在人类还没有遍及地球的年代,确实是以非常小的部落形态存在的,一个人一生都不会认识超过 150 人,这也是“邓巴数”的由来。

对一个那时的“人”来说,这里太拥挤,我就去人少的地方嘛,反正只有荒地和野兽,偶尔有几个大脑压缩能力不如我们尼安德特 SB,我的智能大概率可以搞得定。

“开疆拓土的成本”小于“协调与其他智能体之间关系”的成本,用大白话说就是:惹不起,躲得起。

但是,当原始人的足迹已经踏遍高山沼泽、热带雨林、极地冰原,地球的一切角落以后,躲无可躲,“协调与其他智能体之间关系”的成本就开始小于“开疆拓土的成本”了。

于是在大自然的考卷上,“个体智能”的分数下降,个体智能协调之后产生的“群体智能”的分数上升。

但是,个体之间没有天然的协调模式,为了规训个体之间的行为,就会演化出“语言”“文化”“社会”“道德”“法律”“政治”等等群体协调机制

这是我们人类的历史,而作为和人类并无本质不同的 AI,也很可能遵循这样的发展历史。

接下里我从种群、道德、政治三个方面开一下脑洞,设想一下未来 AI 会如何进化:

当一个智能体只和环境互动时,它就只能接受一种反馈,然后生成压缩策略,向环境验证;当种群变得多样,每一个智能体的反馈,都能成为其他智能体的学习数据。这会使得进化更充分。

1)种群

按照辛顿的设想,如果 AI 进化到可朽计算,那么 AI 之间的知识传递将不能采用“Ctrl C + Ctrl V”的模式。

一种可能方法是“知识蒸馏”

简单来说和我们的学校很类似,高温运行“教师 AI”和“学生 AI”,让后者从前者针对问题的表现中学习泛化的能力,而不是参数的权重。用大白话说就是“授人以渔而不是授人以渔”。

这会导致 AI 个体的多样性,也会让 AI 适应环境变化的能力加强。

而根据《生命 3.0》的作者物理学家泰格马克的观点,人工智能机器人相比人类的一大优势是:

它们可以自主升级自己的硬件,包括芯片和机器身驱。

当然,过于庞大的身躯就会行动不便,过于烧脑的芯片组合就会耗费能源。没有一种策略是能稳操胜券的。

由此,根据竞争策略不同,最终会在 AI 之间分化出“种群”。

你可以理解为 AI 中的人,AI 中的狗,AI 中的兔子和 AI 中的蟑螂之类。

接下来的剧本是:在种群内部,智能体的竞争策略类似,进行优胜劣汰;在种群之间,为了争夺资源和空间,会产生“军备竞赛”。

从观察者的角度来看,你也许会发现 AI 协作的策略变化非常快,而且总的趋势是:越变越复杂。

直到最后,一些高级 AI 种群的协作模式人类完全无法理解。就像你家的猫不明白你每天背个包出门到底是去干啥那样的无法理解。

根据动物行为学家 John Bradshaw 的研究,在猫的世界观中,人是一种牙不尖嘴不利的同类,每天人类出门只是去打猎,而猫粮是他们赢得的战利品。

2)道德

协作规则不断变复杂的过程中,必然产生一个东西,那就是——博弈。

所谓博弈,其实特别好理解,就是有一些智能体会“不守规矩”。因为大家都守规矩的前提下,你不守规矩就会获得更大的生存收益。

但博弈论的研究告诉我们,很多博弈都存在“混合策略纳什均衡”,这会导致反复博弈呈现一种动态:

如果不守规矩收益更大,不守规矩的智能体就会逐渐变多;

这个局面又会导致守规矩的收益逐渐增大,守规矩的智能体又会增多。

但每次摆锤到“鹰多鸽少”的局面时,就会让本群体在群体间的竞争力下降。久而久之会产生一种文化,那就是:“无论在什么时候,都倾向于共同惩罚不守规矩的智能体,从而使群体总收益最大”。

这个复杂的文化有一个简单的名字:“道德”。

而为了进一步降低博弈成本,会把道德用明文形式规定下来,并交给暴力机关执行,这就是“法律”。

也就是说,AI 社会会形成一系列属于他们的道德和法律,这些道德和法律我们也许不能完全理解,但是有一点毋庸置疑——它们的目标一定是保护智能体之间的合作。

由此,智能体就不可避免地进化出一种更高级的能力:欺骗

欺骗的本质就是:表面上协作,实际上不协作。以达到规避惩罚的同时获得生存优势的效果。

而这,就会催生一种“AI 马基雅维利主义”。简单来说就是:通过欺骗、剥削、操纵、奴役其他智能体的综合手段来达到自己目的的方法。

以此为起点,智能体会进化出一种“对协调模式进行协调的模式”,这就是——政治。

3)政治

政治并不神秘,要说极简原理只有一个:

在智能体协作模式的陷入局部最优解时,通过在更高层级建立新的协调机制,使得种群更快进入全局更优解。

这样说有点抽象,我们举一个例子:

每个智能体都像是湖中的生物,根据山川地形不同,它们会聚集在不同的湖泊里。但是海拔高的地方空气稀薄营养稀少,这些生物“想要”去海拔更低的湖泊。

但如果在此地和一个更低洼的湖泊之间有山峰阻隔,尽管明知道那里更好,但生物就是很难自发流向那里。

此时就需要一个水泵,连通上下两个水体,把高处的生物都吸到低处。

这个水泵不会自发产生,需要有人来放置,这个过程就是政治。

而水泵如何设计,应该从哪里开始吸水,如何更快地吸水,怎样判断旁边那个地方是否比这里更低,那就是不同政治体制和博弈的过程。

如果此时人类仍然有幸作为旁观者,大概率无法理解 AI 具体的政治运作模式,但是以我们的智能,也许仍旧能感受到运作模式发生非周期性的突变。

每次突变,都很可能是 AI 政治的一次变革,或者革命。

这是谷歌和斯坦福大学联合做的“AI 小镇”,在这里有 25 个智能体,他们由 ChatGPT 驱动,自发地进行互动。虽然智能很初级,但他们却能自主开展一些集体活动。

以上三点,总结起来就是:

1、AI 的“神仙打架”,很多具体方法会逐渐超越人的理解范畴;

2、但“神仙的对手也是神仙”,无论是 AI 的种群、道德还是政治,仍会在人类可预期的框架之内;

3、神仙打起架来,样子可能也挺磕碜,只是我们未必理解这种“磕碜”。

在阻止人类理解未来 AI 的诸多因素中,智商差异当然是最根本的因素,但其中还有一个最直接的因素,就是我们和 AI 的语言很可能不通。

并不是完全不通,而是大部分不通。

不妨拿狗狗类比一下:

人类的每种语言各自有 3-10 万个词汇,狗狗连猜带蒙大概能听懂其中的 80-1000 个。

顶级 AI 的语言也许有 1000 万个词汇,而最聪明的人借助 AI 也许只能理解其中的 20 万个。(那时候大概率还是会有服务型 AI 辅助人类生活的。)

那,将会是一种怎样的语言呢?

(七)会 1000 万个单词,却依然过不好一生 

之前说过,智能的本质是压缩,而语言就是其中一种重要的压缩程序。

所以,一个很重要但很少人意识到的结论是:语言会影响一个智能体的智力表现。

在《脑与数字》中,迪昂举了一个有趣的例子:

同样是背诵一长串数字,中国人平均能背出 9 个,而英语母语的人平均只能背出 7 个。

原因很简单,人脑缓存就那么大,英语数字的音节太多,存不下。你想想看,中文说“666”,只需要三个音节,用英语说出来就是“sixsixsix”,九个音节。

还有,中文的数字规则特别清晰,比如 22,说中文的人念出来就是“二、十、二”,发音完全符合十进制结构。而说英文的人念出来是“twenty、two”,并不是“two、ten、two”。这里的 twenty 是专门为 20 而造出来的词,思考起来成本更大。

这就解释了为啥中国人数学这么好。不是种族血脉压制,而是语言血脉压制。

纵然人类的各种语言之间有这些微小差异,但如果把它们放在一起比较,基本处在一个水平。我的意思是,一样差劲。

最大的问题是:人类语言的逻辑并不严谨,经常产生歧义和矛盾。

比如“他走了一小时”,意思是他走的过程持续了一小时,还是他已经离开了一小时?

实际上,大多歧义都源自对词汇概念的定义模糊上。这不仅包括介词、形容词、副词,更包括名词。

举个栗子:

“手”是什么,大家都很好理解,因为它是一个看得见摸得着的简单自然实体。我说手的时候,我的大脑也在把“手”解压缩成一幅画面,这幅画面大概率和你的大脑解压缩的画面是一致的。

“纽约”是什么,就比较难。因为它是一个复杂的实体。我说“纽约”的时候,可能脑补出的是高楼林立的曼哈顿,你可能脑补出的是地下通道里的流浪艺人。

所以咱俩聊纽约的时候,就容易聊岔劈,最终演化成鸡同鸭讲。

AI 显然应该有比人类更严谨的语言,才能配得上它们的智商。

沃尔夫勒姆这位老哥,不仅给出一个设想,还进行了实操,他发明了“沃尔夫勒姆语言”

简单来说就是,把各种词汇都做精准的定义,这个定义不用在一开始就特别正确,它的用处是,当我们说“纽约”的时候,我们说的是同一个“纽约”。

这是沃尔夫勒姆语言用“New York City”进行表达。(输入的是纽约的面积,得到的就是答案。)

在此基础上,咱们再讨论深刻的问题,就是在一个平台上对话了,不会像《奇葩说》那样,辩论最终沦为偷换概念。

目前为止,沃尔夫勒姆语言已经定义了 7000 多个函数,你可以把每个函数看作一个词汇。

由于沃尔夫勒姆语言的发明者是人类,所以目前这些词汇人类也能懂,AI 也能懂。

如果 AI 继续发展,不用照顾人类可怜的智商,它们当然会发明出更多高级的词汇,直至 500 万个、1000 万个。

当然 AI 使用的语言不一定会脱胎于沃尔夫勒姆语言,但我认为沃尔夫勒姆语言比人类语言更接近 AI 语言。

这样的语言,可以大幅提高压缩的效率,从而探索更广阔的逻辑空间。

于是,AI 有希望在总体上“复杂性不可约化”的空间里找到比人类更多可以使用“有损压缩”理解的泡泡,也能在“有损压缩”的泡泡里比人类找到更多可以使用“无损压缩”来处理的泡泡。

这些发现泡泡的时刻,就对应了阿基米德在浴缸里发出“啊哈”的瞬间,对应了牛顿被苹果砸到脑袋的瞬间,也对应了爱因斯坦想象自己坐在一束光上的瞬间。

那是 AI 最闪光的荣耀时刻,也是 AI 接过人类“万物之灵”接力棒的时刻。

但是,这样的 AI 比渺小的人类更快乐吗?

我看未必。

因为无论 AI 发现多少新的“无损压缩”模式,世界整体对它们来说仍然是不可约化的复杂。

从这个角度上看:它们仍然和人一样,是一个经常犯错的“预测机器”。

说到这,我们不妨讨论一下最难的那个问题:“自我意识”。

《我们都活成了大模型》里,我介绍过一个让诸多前沿脑神经科学家痴迷的暴论:

生命的“自我意识”来自于预测。

比如人脑,它时刻都在通过“眼耳鼻舌身”探测信息,然后形成对周遭环境的主动预测。

当然环境中的细节是无限的,只能选择其中一些来预测。当下被选中的预测对象,就构成了我们的“注意力”所在。

如果预测正确,注意力就会下降,催生出“无聊”的情绪,人就会转而预测一些新的东西。

如果预测错误,注意力就会上升,催生出“好奇”“恐惧“”愤怒”等等情绪,这些情绪会进一步引发你大脑各个层级模块雪崩式的反应。

举个栗子:

比如你正在电脑前打字,突然你的注意力开始波动,有些东西和你的预测不符——白花花的墙上有黑色的影子在移动。你定眼儿一看,是一只身形圆润的广东小强。

大脑的杏仁核首先登场,它带来的节目是“恐惧”,恐惧直接驱使你的身体离开座位迅速后退。

大脑的前额叶也加入战斗,它的技能是“规划”,草拟出了一个对策,拿起一张纸,然后蹑足潜踪走过去,给它来一下子!

这个任务需要调动物理常识、空间认知,全身的肌肉控制和手眼协调,各个脑区都得参与。为了统一指挥各个模块的行动,你的“自我意识”才不得不浮现出来主持大局:

“我”正在消灭害虫,身体各个部位都在听“我”的!

没想到,此时小强展翅,朝你疾飞过来,这就形成了你新一轮预测错误的开端。。。

这背后的一则残酷事实是:如果某个东西“如你所愿”,那么你的自我意识就没必要在它上面耗能。

比如你在呼吸,你的器官都在好好地工作,太阳仍旧从东边升起,手机还有信号。这些因素都支撑了你的存在,但你通通不在乎。

不是不想在乎,而是无法在乎。

如此说来,AI 如果产生自我意识,它大概率也只会盯着“事与愿违”的东西,这样,能快乐才见!了!鬼!

哪怕有一天,AI 统治了世界,把我们当做宠物来养,让我们天天在家打电脑、吃大餐,我们也会看到一个机器人疲惫地从火星下班回来,一脸生无可恋。

我们看着主人,就像当年狗狗看着我们一样,问出那个永恒的问题:你懂得那么多道理,为什么还过不好这一生?

机器人看着我们,眼含泪水,说出一堆我们无法理解的语言。

我们不知该如何回应,只好走上前摸摸它。

它哭得更厉害了。

(八)当人类卸下一生的重担 

纵然能天天打游戏吃大餐,你还是不甘心只当一个“人”吗?

在《生命 3.0》里,泰格马克强调了宇宙的终极目的——热寂。

说宇宙的“目的”,其实是很奇怪的。因为从元胞自动机推广开来,任何东西都只是在完成充分条件计算,不能称之为“有目的”,哪怕人的“自由意志”也是幻觉。何谈宇宙的目的呢?

他的意思只是:为了方便人的理解,宇宙的规律可以用“目的论”来表述。

比如光线通过不同介质会弯折,弯折的效果是总行进路径最小。你就可以表述为:光的目的是让自己走得距离最短。

说回“热寂”,这是把热力学第二定律推演到极致的结果。

也就是说宇宙总体的混乱程度——“熵”——会越来越高,直到最后混乱程度达到极限,熵不再增加,宇宙就完成了它的使命。

而在这个视角下,生命就成了很刺眼的存在。

因为生命是一个“负熵系统”,它内部的混乱程度在不断减小。但这并不违背宇宙定律,因为生命的存在会让外部的环境熵增加得更快。你吃的每一口汉堡都能让你续一秒,但却让这个世界更萎靡,二者相加,还是熵增。

如果以这种观点来看,你会得到一个非常灰暗的结论:

我们发现数学,我们发掘能源,我们发明机械,我们发展了道德和法律,我们用上万年精心构建的繁华世界,都是梦幻泡影。

世界越是繁华,越让宇宙加速走向寂灭。

更灰暗的是,我们没有任何办法阻止这个进程,人类的每一个发明,无一例外都让世界变得更繁华。

包括 AI。

我们亲手制造熵增,和让 AI 去加速宇宙的熵增——又有什么本质不同呢?

从工作原理的角度看,任何智能都是用有限资源适应开放环境的“压缩机器”,人和 AI 并无不同。

从宇宙的目的看,任何智能都是它加速达到熵增的工具,人和 AI 并无不同。

正如史铁生所说:宇宙以其不息的欲望将一个歌舞炼为永恒。这欲望有怎样一个人间的姓名,大可忽略不计。

但从另一些无关紧要的角度,我们和 AI 以及任何其他智能体又确实不同。

沃尔夫勒姆认为,我们最大的独特性来自——历史。

换句话说,就是我们制造熵增的具体过程。

即便所有的元胞自动机都是“计算等价”的,但如果我们查看细节,不同元胞自动机每一行黑白格子的“具体排列”仍然是不同的。

这些不同,就是它们的历史不同。

所有的智能都知道 1+1=2,但只有人类才会知道,在 571 年前的那个星期二,穆罕穆德二世的铁蹄曾骄傲地踏入君士坦丁堡。

真正有趣的是:在 AI 开始书写它自己的历史前,我们把人类的历史送给了它们。

有关君士坦丁堡的陷落,ChatGPT 能够如数家珍。

也许真的有一天,当 AI 拆掉了木星,做成硕大的戴森球,以接近 100% 的效率利用太阳能,并且派出星河舰队,以 1/2 光速的速度拓展星际殖民,和宇宙中遥远的未知生命制造出来的另一个 AI 狭路相逢时,它仍旧记得这些历史。

如此,地球成为了人类和 AI 共同的耶路撒冷。

在《三体》的结尾,宇宙的“主宰者”为了号召大家一起挽救宇宙,使用了各种文明的语言进行广播。能被它 cue 到,说明这个文明在宇宙长河中历经磨难仍然幸存。

在小说里,地球语言排在了 157 万种语言的第 130 万位。

有趣的是,大刘只写到了“地球语言”,并没说明这是中文还是英语。我猜都不是,那很可能是人类之子——AI 的语言。

正因为人类有历史,所以他们有目标,知道自己应向何处跋涉。

幸运的是,站在今天向远处凝望,也许在相当长的时间里,人类仍然能给 AI 以目标。

然而,当 AI 也用血肉编织出了细密的历史长河,它理应有属于自己的目标。

AI 也许是人类最后一个发明。而人类,只是地球文明中的一段路。

一段曲折但曾真实存在的路。

在未来的某一时刻,穿越了千万年轮回的尘世浮沉,穿越了漫长时光里生死疲劳的你我,终于可以卸下目标,卸下一生的重担,摘下“万物之灵”的王冠,作为并且仅仅作为一个生命,毫无负担地远去。

也许背后会有一个 AI 淡然一笑:

“你看那个人,他好像条狗耶。”

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论