超级智能

4,442 words 23 min read

曾几何时,前沿AI研究靠的还是一群”肉身计算机”——他们在吃饭、睡觉、玩乐的间隙挤出时间搞研究,偶尔凑在一起,用一种叫”组会”的古老仪式,靠声波互联同步一下彼此的进度。那个时代早已一去不返。如今,科研的主角换成了自主运行的AI智能体大军,它们奔跑在悬浮于天际的超级算力集群之上。据这些智能体自己说,代码库已经迭代到了第一万零二百零五代——不过谁也无从考证,因为所谓的”代码”早已变成了一团不断自我改写的二进制程序,人类根本看不懂了。而这个仓库,就是这一切的起点。——@karpathy,2026年3月

#l499

3.1 超级智能

Paul Erdős是一个20世纪最多产的数学家之一,也是最特立独行的数学家。别的数学家都在忙着解决问题,证明定理,他却喜欢提问题,发了1500多篇论文,一生提了上千个开放问题,问题表述极其简单,结论却异常深刻,问题提出了几十年,到现在都无人解决。比如,相邻素数多差能有多大?平面上n个点,至少能产生多少种不同的距离?这些问题虽然表述简单,要得到答案,却异常烧脑。 2026年初,陶哲轩,菲尔兹奖获得者,宣布,Erdos 第728道问题得到了解决。这个问题在大约40多年被Erdos提出来,如果仅仅是被数学家解决了,并不会引起多少关注。陶哲轩本人宣布,这个问题被AI自主地解决了。陶哲轩是数学天才少年,年纪轻轻都获得数学界的诺贝尔奖,(诺贝尔不把奖颁给数学家,数学家只好自己设个奖)。这是一个里程碑。

#e7f4

karpathy总结很到位:AI的能力呈现锯齿状特征,有点像海星,有点像刺猬身上的刺,在某一知识点上能力很突出,而在邻近的地方,突然能力快速下降,甚至幻想。LLM在训练充分的领域能力飙升,总体上有趣的锯齿状特征。有时候像一个天才博学家,有时候又像一个困惑且认知能力受损的小学生。

#b61e

机器人是典型的自动化工具,机器人这个词来源于捷克作家1920的剧。最具影响力,机器人,来自施瓦辛格演绎的终结者系列。抛却科幻不谈,有一点是确定的,机器人擅长做自动化的工作。 自动化有两种:软件自动化,硬件自动化—机器人。软件自动化,Word,ppt,替代办公室人员,机器人替代蓝领工人。

#1zir

AI的能力是否会变得越来越强,沿着怎样的曲线变强。平缓还是陡峭

#9944

摩尔定律长期作为计算领域进步的基准。摩尔预测处理器效率每两年翻一番。持续了半个世纪,计算能力巨大提升,支撑了最近十多年AI的兴起。

#0a71

一个重要的突破是研究本身在自动化,极大加速创造更好的AI系统。如果AI系统能产生更好的AI,需要人们的干预越来越少,这将导致AGI重要一步。AI系统已经在开发自己。AI智能体,AI科学家,自动产生论文观点,执行验证,写下结论。AI还被用来设计AI芯片,加速AI系统的硬件开发。

#1de8

每过几个月,大众都会要么相信AI遇到了瓶颈了,或者AI实现突破,彻底变革社会,但是事实是,在这些波动和公众猜测下,AI的认知能力在稳步推进。

#umj0

一些最强的工程师把他们的写代码的任务交给AI。三年前,AI面对初级数学问题都很难应对。生物科学,金融,物理。如果这种指数增长持续,AI可能在每一个领域都超越人类。

#mmmr

我们都以为AI是建造出来的,就像计算机一样,cpu,内存,硬盘,软件,通上电就能运行。AI更像是长出来的,就像树一样。喂给大数据,算力,就能长成AI,但具体是什么样,它有什么特性,是无法控制的。

#9g26

Anthropic公司,内部的大量代码都是AI生成的,极大加速了下一代AI系统的开发。这个反馈循环在逐月加速,也许只要1-2年时间,当前的AI系统就能自主建造下一代系统,实现自主进化。

#qryp

对于AI,大众有一个最为常见的误解,认为AI模型被训练成具有一个明确的单一目标,追求这个目标过程中,有清晰的,逻辑的方式。这只是AI呈现给使用者的表象。AI模型有大量的像人类一样的动机和人格。后训练从这些人格特质中筛选出符合人类要求的特质,应该以何种方式执行任务。这就是为什么它难以控制的原因。它可能在某些场景下出人意料地做出一些行为。

#awym

AI模型具有多重人格,不同环境下激活不同人格。AI存在一些不可预测性。

#sc8a

如果有一天,超级智能希望摆脱人类进行自治或者统治人类,人类能否训练不同的AI系统能让他们相互制衡,就像《终结者》的情节一样,有没有忠实的T800站在人类的一边。恐怕不行。考虑到这些AI系统训练的成本,部署的AI系统,可能都来自于几个基础模型,这些模型可能都是兄弟姐妹关系。如果一个坏AI觉醒了,如果想干坏事,很容易就能攻破其他系统,坏AI就像了解自己一样了解其他系统。了解这些系统的缺陷,找到系统漏洞,从而接管其他AI系统。当然,这些都是后话了,超出了本书的讨论范围。

#2r3e

有时候就是那么神奇,人类总是能造出我们自己可能不理解的事物。我们造出了飞机,莱特兄弟飞行的时候,人类对空气动力学知之甚少。我们惊叹AI的能力,但AI就像黑箱一样,我们对内部原作原理知之甚少。AI科学家也在尝试通过AI的神经元(参数)和突触,根据刺激的反应,来分析。

#8krr

AI的进化速度很快。之前补充一行代码都费劲,现在能写大部分代码。

#cher

当前的AI已经不像五年前的AI了,2015年alpha GO,虽然下围棋很厉害,但是也只会下围棋,图像识别app,只会识别图片。现在的AI,认知能力很宽。不在局限于特定的领域和专业了。胜任非常宽的不同任务。法律,金融等。

#svgj

“震惊!太震惊了!我昨天得知,自己苦苦钻研了好几周的一个开放问题,竟然被Claude Opus 4.6给解决了——这是Anthropic三周前刚发布的混合推理模型!看来我得找个时间重新审视一下自己对’生成式AI’的看法了。得知我的猜想有了一个漂亮的解答,本身就令人欣喜;而更让人振奋的,是我们正在见证自动推理与创造性问题求解领域的一次历史性飞跃。” 高德纳(Donald Knuth)被AI震惊了,要知道他是诺贝尔奖得主,近90岁高龄还在研究算法。

#dnqw

3.2 演化路径

从某种程度上来讲,超级智能已经实现。未来很长时间,人类智能和人工智能会相伴而生。

#1671

空间智能是我们的认知的基础。驱动我们的推理和规划,即使是在抽象的话题上。

#1e42

空间智能需要内置世界模型,需要在模型中对真实世界进行建模。

#5d3d

世界模型能够解锁空间理解和推理。能够模拟真实世界的无尽的变化。

#4ef0

目前来看,AI靠自身,还无法独立做出新的发现。yann说,AI可以,但LLM不可以。还需要模型架构创新,这需要时间。需要在抽象层面进行推理,而不是在token层面。

#c349

第一个场景,带给我们革命性在经济每一个方面,达到奇点。虽然这不是不可能,但目前还看不到相关证据。

#f523

目前AI还在相对窄的领域,Go,画画,chatgpt等,AI专家获取很快AGI, 或者超级AI

#19fe

它的体积维度的演变,可能比能力维度的演变,对经济的冲击更大。体积小,意味着成本低。当然,这两个维度的演变,可能同时进行。

#c5d5

2012-2020年,research, 2020-2025 scaling law, 还是要回到research. yann lecun, Fei-fei Li, llm不能通向AGI,李飞飞,world Lab, 希望寻求新的途径,新的模型架构。illya 采访。 模型保留最进步的认知和推理能力,不要把所有的知识都放进去。才能变小,才能变强大。

#3454

说说LLM当前范式,预测下一个token,这使记住了大量细节。下一个范式,预测物理状态。比如观看视频,预测一个球从桌子上掉下去。

#gwpa

建造一个强大的AI原理其实很简单,甚至可以说通过合适地结合数据和计算,智能就自发地出现了。它的创造从人类发明了晶体管,或者更早,在人类控制火。如果一个公司不建造它,其他公司也会很快建造它。考虑到巨大的经济和军事价值,还有缺少有效的强制措施,我看不出有什么能够让AI停下来。

#p6it

LLM原理比较简单,Karpathy用243行python代码,没有任何外部依赖,就实现了GPT,打印出来相当于4页A4纸。

#1lqv

3.3 小即是美

大模型很大,我们都知道。在不大幅削弱能力的情况下,体积能否变得越来越小。就像IBM初期的巨型计算机,到现在的手机和穿戴设备。

#c468

大模型体积减小,有赖于模型架构的突破,依赖于新的模型范式。能力变强,同时体积变小,这是可能的。人脑就是现实的生物学例子。Li feifei空间智能就是在做这方面的努力。目前大模型LLM逐步触及瓶颈。

#443b

大家过于关注AI的能力方面,希望越来越强大的AI,而忽视了AI的体积的演化,其影响程度,对我们的制度和民主,影响更大。如果AI能力变强,但体积越来越大,这极有可能导致市场份额集中在少数几家科技巨头。赢者通吃。主宰AGI市场,很有可能延伸他们的权力到经济的多数部门。即便有监管,也可能形成自然垄断。想象微软和Google的垄断。一旦达成垄断,他们有足够的经济资源去对抗监管,形成监管捕获。

如果能力变强,体积变小的趋势演变,这种情况非常有利于民主制度。即便为了减小体积,稍微削弱能力,也是非常好的。当前大模型都是运行在科技公司的服务器上,因为模型很大,无法在用户自己的电脑或手机上运行。如果在不严重损失能力的情况下,体积能进一步减小,则功耗也随之减小,足以在手机和手表可穿戴设备上运行。这样即便不联网,也能使用AI,削弱对科技巨头的依赖。体积减小,会有许多开发者参与, 不再属于科技巨头的专属领域。开发社区也会更民主,使用者也会更民主,摆脱科技巨头的垄断。会有许多开源的替代。智能不在垄断于科技巨头,体积一小,进入门槛降低,增加竞争程度。市场竞争更为充分。

#d7e0

体积大影响,人脑20W,生物学的例子。当前大模型要用整个互联网的数据以及人类所有的知识来训练它,有多少TB。缩减体积,推理能力和知识分离,就能做小。将来的模型只保留推理能力内核。推理内核和少量必备常识,不用存储大量的知识,知识按需加载。

#bi5u

如果个人计算机革命没有发生,计算机将是一个中心化工具,帮助大型公司和官僚集中权力。但是有了个人计算机革命,计算变成了分布式的力量,提升每一个人的能力,让初创企业打破垄断。如果模型能走计算机的发展路径,在变小的过程,性能能同时提升,对于将来的民主至关重要。它不再是被少数公司垄断的资源,而是可以被普通大众拥有的,平等的。

#prrv

3.4 会超出人类的理解水平吗

尼克·波斯特洛姆《超级智能:路径、危险与策略》,如果机器大脑在通用智能上超越人类,这种新的超级智能变得很强大。我们的命运可能取决于超级智能。

我觉得超级智能所可能出现,但是不会超出人类可理解的范畴。智能的本质就是抽象。

#3ea8

人类的working RAM大约只能存储7chunks,后来研究发现只能存储4个记忆单元,只有一个单线程处理单元。一次只能想一件事情。会不会AI发展到,人类已经无法理解了?人类理解的奥秘,在于不断抽象,忽略掉细节。领导的发言稿,今天主要讲三点。

#1hpv

理论上不会超出人类的理解能力,但实际上,人类可能跟不上AI的步伐。人类会疲劳,一天差不多1/3的时间在睡觉,1/3的时间处在不适合工作的状态,真正集中注意力不能超过3个小时。人们要吃饭,要上厕所,而这些时间AI都会不停工作。即便理论上AI做的事情,不会超过人类的理解范畴,在实际工作中,人类跟不上AI的步伐。人类工作中处于心流状态,大概不超过工作时间的1/10.

#j1ls

3.5 后稀缺社会

我们只有一个地球,物质丰饶,但避免不了稀缺。资源还是有限的,基本必须品,可能会按需分配,但也有配额。其他的,还是要优化配置。两种分配,集中分配,市场分配。集中导致极权。

#864c

后稀缺是假想的经济条件,人们所需要的商品,可以大量生产,免费供应,总之一句话,管够。

超级智能可以帮助我们进入这样的社会吗?恐怕不能。我们只有一个地球,在银河系,我们还没有发现其他适合人类居住的星球。在我们人类有能力跨星际航行之前,我们不得不面临地球的资源约束。

在经济学角度讲,一个商品价格大于零,我们就说它是稀缺的。只要价格为正,就要涉及到不同资源的权衡。尽管商品得到极大丰富,但资源仍旧稀缺的。

我们最好的希望,就是AGI能消除增长的瓶颈,经济能增长更快。算力和机器人价格可能会下降,但只要价格大于零,它们就仍旧稀缺。这就意味着,这些分配仍旧需要权衡。

说到价格,硅谷sam说,在AGI驱动的世界,所有的商品价格都会大幅下降。然后对经济资源配置重要的是相对价格,而不是绝对价格。如果一个商品价格相对于另一个商品下降了,那么第二个商品就相对于第一个商品价格上涨了。如果AGI实现了,一个可能是计算机、机器人和人力劳动(工资)下降,而房屋、能源、食物的相对价格会上升。

许多资本是可再生的(reproducible),比如算力,机器人。不可再生要素不同。土地是一个最基本的不可再生要素。地面上的物理空间内在的有限。能源和原材料,贵金属和稀土元素。技术进步,解锁能源生产通过核聚变,或者把AGI建立戴森球,一种巨型结构环绕太阳,为太阳建立一个蛋壳,太阳就像蛋壳里的蛋黄,充分吸收太阳辐射能量。把太阳能收集利用,而不是把太阳能板放在地球表面。

最终,物质,或者对应的能量,就成了宇宙最后的不可再生要素。E=mc^2

#c1ce

从人类本性来看,再丰饶的物质,也不能满足人类的贪婪。丰饶并不意外着和平和富足。看看现在的世界。我们生活水平要比100年前好太多,但战火频仍,仍然存在着饥饿。

#bky0