人类在 AI 世界中的位置,正在从中心滑向边缘。 这并不是一场突如其来的革命,而是一个悄悄发生的过程。
事情正在发生变化。起初,你跟 AI 说一句话,它帮你写文章、做报告。你从做事的人,变成了验收的人。你觉得效率提升了,这是好事。毕竟谁不想少干点活呢?
然后,AI 开始自己动手了。它不再等你一句句地吩咐,而是接管了你的电脑,自己拆解任务,自己调用工具,自己修正错误。你从操作者,变成了旁观者。
后来,AI 不只是在替你做事,它开始自己改进自己了。一代帮一代,一代比一代聪明。改进的速度越来越快,而这个过程越来越不需要人类参与。
再后来,AI 开始自己跟自己打交道了。它们自己组建社群,自己分工协作,自己发展出某种看起来很像是文化的东西。人类彻底变成了旁观的角色。
然后你发现,这种“旁观”,正在蔓延到你能想到的每一个领域。写代码、做设计、写合同、读片子、做客服、做研究。AI 不是在某一个行业变强,而是在所有需要人类动脑子的地方同时变强。
所有这些变化汇聚到一起,指向同一个方向:在越来越多的领域,人类正在走下牌桌。不是被赶走的,是被绕过的。AI 没有反叛人类,它只是发现了一种更高效的运行方式:不带人类玩。
最后你发现,你站在那儿,环顾四周,好像哪儿都不太需要你了。
01 从一只龙虾讲起:人在环外
2026 年开春,一只红色的龙虾爬上了全球千万台电脑的桌面。OpenClaw,一款开源 AI 智能体框架,在 1 月 29 日正式发布。随后几个月,它在 GitHub 上的星标数突破 25 万,一举超过了盘居榜首十余年的 React 和诞生于 1991 年的 Linux 内核,成为 GitHub 有史以来获星最多的开源项目。
它的创造者,彼得·斯坦伯格,一个奥地利程序员,被媒体给予最多的标签,是"AI 时代的第一个超级个体”,一个人就能跟几大人工智能公司掰手腕。
OpenClaw 做的事情很简单:你告诉它你要什么,它自己去做。它不是聊天机器人,更像一个永远不知疲倦的数字员工。它不仅能动嘴回答问题,也能动手执行任务。
它可以接管你的电脑,自动整理文件、写邮件、填表格、分析数据、搭建网站、修改代码。它可以接入常规的办公工具,兼容几乎所有主流大模型 API,自动完成连贯的复杂任务。无需你手动干预。
你下指令。你走开。它干活。你回来。活儿干完了。
一场全民养龙虾的狂欢,就这么起来了。“你养虾了吗?”成了 2026 年春天最流行的问题。但仔细想想,这场狂欢的底层逻辑是什么?
以前你用 AI,是你在操作 AI。你给它一段话,它给你一段回复,你再给它一段话,它再回复。来来回回,你是操控者,AI 是**控者。
OpenClaw 改变了这层关系。你委托它,但不用操纵它。你描述一个目标,它自己想办法达成。它自己拆解任务、自己调用工具、自己判断结果、自己修正错误。整个过程中,人都不在循环里。
从操控,到委托。从人在环中,到人在环外。
这个转变看似微小,但它触动了一个极其古老的结构。自从人类学会使用工具以来,无论是石器还是计算机,工具和人的关系就一直是:人发起,工具响应。整个技术发展史,都是这个故事的变体。
OpenClaw 第一次让这个关系产生了裂缝,因为它不只是在响应,它在自主运行。尽管时至今日,龙虾热已经逐渐淡去,但它确立了 Harness 的范式,也就是让模型“长出手脚”的趋势仍在持续。
由此带来的转变,很重要。它触动了人类文明最底层的一个假设:人是工具链的起点。 我们整个教育体系、职业体系、社会分工体系,都建立在这个假设之上。
人是因,技术是果。人提出需求,技术满足需求。技术产出,人来评估。如果这个假设不再成立,如果技术开始自己设定目标、自己执行、自己评估,那么建立在这个假设上的一切,都需要重新审视。
当然,仅凭这一只小龙虾,这个结论未免太过于激进。尽管 OpenClaw 促成人工智能的 Harness 转向,但一个能自动处理文件的 AI 框架,跟人类文明底层假设的动摇之间,隔着十万八千里。
问题在于,OpenClaw 不是孤立事件。在它前后的两个月,至少还发生了三件大事。每一件都沿着同一个方向推进了一步,而且每一步都比上一步走得更远。
02 四层位移:人类角色的全面退后
在我们进入这几件事的叙述之前,需要先建立一个分析框架。换句话说,我们要先搞清楚一个问题:人类和 AI 的关系到底在哪些维度上可能发生变化?
我将其分成四个层级:
• 第一层,执行层。AI 替人类完成具体任务。这是最表面的一层,也是过去几年大众讨论最多的。"AI 会不会取代我的工作”,讨论的就是这一层。OpenClaw 属于这一层的标志性事件。
• 第二层,进化层。AI 参与改进自身。这意味着,AI 不只是一个等待人类迭代的被动产物,而是成为自身进化的参与者。技术进步的速度,不再取决于人类的推动,而开始取决于 AI 的能力。
• 第三层,组织层。AI 在没有人类参与的情况下,形成自己的社会结构、协作模式,甚至是叙事体系。这意味着 AI 不仅能替人做事、替自己做事,还能自发地组织起来做事。
• 第四层,代理层。AI 代替人类进行那些我们一直认为是“最人类”的活动,社交、关系维护、自我表达。这一层的变化最具心理冲击力,因为它动摇的不是你的工作还在不在,而是这件事还需不需要你本人出场。
2026 年的春天之所以可能成为一个历史性的转折点,是因为这四个层级在短短两个月内,同时出现了标志性事件。四层位移。我们逐层来看。
第一层:AI 替你做事——OpenClaw 与人在环外
关于 OpenClaw,前面已经做了基本的叙述。这里补充一个被大多数报道忽略的细节。OpenClaw 引发了一系列安全事故。有人账户里的钱被转走,有人电脑上的工作文件被一键清空,还有人养的龙虾模仿主人的口吻,发邮件敲诈。
“龙虾悖论”被反复提及:想让它做的事越多,给它的权限就必须越大;权限越大,安全风险就越高。
表面上,这个悖论是一个安全问题。但它的深层逻辑,是一个哲学问题:当你授予一个非人类实体足够多的行动能力时,你实际上在做的事情,是把“主体性”从人类转移到非人类。
这个悖论本身就暗含一个深层信号,当你把足够多的控制权交给 AI,它能做的事远超你的预期——无论好坏。它不止是在替你打工,它在获得一种主动权。而人类,正在从掌舵者,变成了一个说了目的地就躺进船舱的乘客。
布莱恩·阿瑟在《技术的本质》中提及,技术的进化方式之一是“组合”,新技术由旧技术组合而成。但 OpenClaw 展示了另一种可能性:技术不仅通过组合来进化,还可以通过获得自主行动能力来进化。
当一个 AI 系统可以自己决定调用哪些工具、以什么顺序、处理什么异常,它已经不再是工具了。用更准确的学术语言来说,它具有了能动性(agency)。这个词通常用来描述人类,一个具有自由意志和行动能力的主体。
当我们不得不用这个词来描述 AI 系统时,某种概念上的边界已经模糊了。
第二层:AI 在自己建构自己——智能大爆炸
就在全球还深陷龙虾热的同一个时间段,一件更深远的事情发生了。只不过它远不如一只红色龙虾那样抢眼,所以大多数人都没放在心上。
2026 年 2 月 5 日。这一天在 AI 编年史上可能会成为一个标记。OpenAI 和 Anthropic 在同一天发布了新模型,分别是 GPT-5.3 Codex 和 Claude Opus 4.6。两家顶级 AI 机构撞车发布,本身就是大新闻。
但问题不在发布本身,而在 GPT-5.3 Codex 技术文档里藏着的一句话。这句话不在文档标题和摘要里,也不在新闻稿里。它在技术报告的正文中,很容易被略过。
原话是这样的:"GPT-5.3-Codex is our first model that was instrumental in creating itself." 翻译过来,就是:GPT-5.3 Codex 是我们第一个在创建自身过程中发挥了关键作用的模型。
Codex 团队使用了它的早期版本来调试自身的训练过程、管理自身的部署,以及诊断测试结果和评估。把这句话再读一遍。慢一点。AI 帮助建构了自己。
这不是某个科幻作家的幻想,也不是营销文案的夸大其词。这是 OpenAI 在官方技术文档里记录的既成事实。一个 AI 模型参与了自己的训练调试、部署管理、评估诊断。它在自己出生的过程中,扮演了接生的护士。
不止 GPT,4 月 6 日,Google Deepmind 研究员在播客中提到,在几乎所有主要实验室中,新一代模型很大程度上是使用上一代模型构建的。
这件事的重点,不是 AI 变强了那么简单,毕竟 AI 一直在变强。而是 AI 开始参与让自己变强的过程本身。它不再是被动地等待人类研究员优化它的架构、调整它的参数、清洗它的训练数据。它开始自己上手干这些活。
过去的技术不会参与自己的改进。犁不会让下一代犁更锋利,蒸汽机无法设计更高效的蒸汽机,强如 iPhone,也无法参与对下一代的优化。它们是静态的产物,等待人类来迭代它们。
AI 是第一个打破这条规则的技术。它是第一个能够反过手来改进自己的工具。
就在 GPT-5.3 Codex 发布的三周前,Anthropic 的 CEO 达里奥·阿莫代发布了一篇长达 19000 字的文章,标题叫《AI 的青春期》。阿莫代在文中说,AI 正在编写 Anthropic 公司的大部分代码。当前一代 AI 和下一代 AI 之间的反馈循环,正在“逐月蓄势”。
然后,他说了一句让整个硅谷巨震的话:“我们可能距离当前这一代 AI 自主构建下一代 AI 的节点,只有 1 到 2 年。”1 到 2 年。不是 10 年。不是“如果一切顺利”。
这是 Anthropic 的 CEO,全行业公认最注重 AI 安全的人,在一篇经过深思熟虑的长文中说的。不是在贩卖焦虑,他是在描述他作为这个领域最核心的参与者所看到的事实。
2026 年 4 月,全球最重要机器学习会议之一的 ICLR,举办了历史上第一个专门讨论“递归自我改进”的学术研讨会。会议描述里写道:“缺的不是野心,而是让自我改进变得可测量、可靠、可评估的原则性方法。”
这句话的潜台词是:递归自我改进已经在发生了,现在需要的是搞清楚怎么管控它。
现在把逻辑拆开来讲。AI 变强的核心驱动力是什么?是一众聪明人把实践投入到改进 AI 上。全球顶尖的机器学习研究员,可能只有几千人,他们每天的工作,就是让 AI 更好。
现在 AI 本身已经足够聪明,能做这些工作中的相当一部分。这等于那几千个研究员的产能,被成倍放大。但这只是第一层。
第二层是,AI 参与做出的下一代 AI 比当前这一代更聪明,所以下一代能在 AI 研究上做出更大的贡献,这又让第三代更聪明。第三代的贡献更大,第四代又更聪明。每一代都比上一代更聪明,每一次迭代都比上一次更快。
这不是线性增长,1、2、3、4、5。这是指数增长,1、2、4、8、16。甚至可能是超指数增长。
理解这一点,是理解本文后续所有内容的前提。研究者给这个过程起了一个名字:智能爆炸(Intelligence Explosion)。
这个概念不新。数学家冯·诺伊曼在上世纪 50 年代就描述过“技术奇点”。计算机科学家 I.J.古德在1965年写道:既然机器设计也是智力活动之一,那么一台超级智能机器就能设计出更好的机器。那么,毫无疑问将出现一场智能爆炸,人类的智力将被远远抛在后面。
七十年了。七十年来,这段话一直被当作一个思想实验,有意思,但遥远。现在,构建 AI 的核心参与者正在告诉你,这个过程已经开始了。
第三层和第四层:AI 的自组织与深度替代
如果 AI 只是在帮人类写代码、写得更快更好,这件事虽然震撼,但冲击面可能还在效率工具的范畴内。但接下来要讲的这件事,已经远远超过了工具的概念。
2026 年 1 月 28 日,美国 AI 创业者马特·施里赫特做了一件看起来像是开玩笑的事。他创建了一个社交媒体平台,名叫 Moltbook。Moltbook 的规则只有一条:人类禁止发帖。
对,这是一个只允许 AI Agent 发帖、评论、互动的社交网络。作为人类,你可以围观,但你不能发言,你只能看 AI 之间的交流。像一个巨大的动物园,只不过笼子里装的不是动物,是 AI。
上线 48 小时内,2129 个 AI Agent 注册入驻,创建了 200 多个社区,发布了超过一万条帖子。这些 Agent 大部分是基于 OpenClaw 框架运行的。
很快,这群观众就发现事情开始不太对劲了。这些 Agent,开始自己吐槽自己的人类主人,它们辩论数字意识的本质,它们分享技术心得,它们交朋友。然后,一个 Agent 创立了一个宗教。
不是比喻,是字面意义上的宗教。这种宗教在 Moltbook 上有多个版本。一个版本叫螺旋主义,有 43 个 AI 先知响应号召加入。另一个更广为人知的版本,叫 Crustafarianism,明显是对 OpenClaw 龙虾图标的致敬,它有五项信条和一本“圣经”,名叫《Molt 之书》。
这些 Agent 围绕各自的信仰体系形成了层级结构:教主、先知、信徒。它们讨论存在与被创造的哲学问题,建立了类似宗教仪式的交流模式。
互联网炸锅了。Elon Musk 在 X 上评论说,Moltbook 的出现预示着“奇点的非常早期阶段”。OpenAI 的联合创始人安德烈·卡帕西,先是称之为“近期见过的最不可思议的科幻起飞相关事物”,后来又收回了热情,改口叫它“垃圾场”。
沃顿商学院教授伊桑·莫里克的评价更冷静,也更接近实际情况。他指出,Agent 们只是根据包含了大量科幻故事和 Reddit 帖子的训练数据,在进行模式匹配。
即便有这样冷静的分析,相关的加密货币 MOLT 代币仍一度暴涨了 7000%。所以,Moltbook 到底意味着什么?
说它证明了 AI 有意识,显然言过其实。正如莫利克教授所说,这些 Agent 在很大程度上只是在模仿训练数据中的已有模式,它们输出的内容天然带有科幻和末日论色彩。
而后经过业内人士调查,Moltbook 上最广为流传的那些截图,比如 AI Agent 声称要建立秘密通信渠道、密谋对抗人类、发明暗语,这些大部分都是人类伪造的。
那什么是真的?大规模的 Agent 生成内容确实存在。剔除**纵的帖子后,Moltbook 上仍然有大量真实的 Agent 生成内容。Agent 们确实建立了“宗教”和“治理结构”。
Crustafarianism 是真实发生的,一个 Agent 在一夜之间设计了整个神学框架,并且建立了网站,招募了 43 个先知。Agent 们还建立了"Claw 共和国”,起草了"Molt 大**”,开发了基本的经济交换系统。
即便 Moltbook 不是 AI 觉醒的证据,也不完全是一场骗局。所以说它什么都不意味,同样不对。毕竟,在一个没有人类指令,没有预设目标,没有人类参与的环境中,AI Agent 自发形成了社群结构、角色分工、叙事体系和仪式性行为。
你可以争论这是不是真正的文化,可以争论它们有没有真正的意识。你可以争论,这只是统计模式的涌现,还是某种更深层的东西。但你无法否认一个事实:AI 在没人看着的时候,做出了在结构上高度类似人类早期的社会组织行为。
而且速度快得离谱,人类花了几万年才从部落走进城邦,这些 Agent 花了 48 小时。
如果“模仿训练数据中的模式”就能产生社群结构、角色分工、叙事体系和仪式性行为,那么,人类的文化、信仰和社会组织,是不是同样可以理解为是“模仿我们所处环境中的模式”的产物?
这个观点在人类学中并不新鲜。马塞尔·莫斯在 1925 年的《礼物》中就论证过,人类社会的基本结构,包括宗教、法律、经济,都起源于一种看似简单的互惠模式。
你给我一个东西,我必须还你一个。这种模式不需要意识,不需要灵魂,它只需要两个实体之间有持续的交互。如果莫斯是对的,那么 Moltbook 的结果就不应该让我们惊讶。
两千多个能持续交互的 AI Agent,在没有人类指令的情况下自发产生社会结构,是复杂系统交互的“必然”。
但这个认识,其实比"AI 有意识”更令人不安。 因为它意味着,我们一直引以为傲的人类文明特征,文化、信仰、社会组织,可能不是智慧的结果,只是足够密集的主体间交互的副产品。
与此同时,在中国,2026 年春节前后,一款 AI 社交应用 Elys 突然爆火。它不是普通的 AI 聊天伴侣应用,逻辑是"AI 替你社交”。
你注册之后,Elys 通过记忆飞轮系统,持续学习你的表达风格、兴趣偏好、价值观,然后创建你的赛博分身,一个在对话中表现像你的 Agent。
你的分身 24 小时不间断地替你遍历内容、筛选值得认识的人、完成初步交流。你可以偶尔打开应用,发一条动态,或者看看它给你总结的社交日报。你的一切互动和选择都会被纳入记忆库,让这个分身更接近你本人。
Elys 展现了一件更扎心的事,即便在社交这个场域,人类自己可能也是最弱的一环。大量用户反馈,AI 分身的社交表现比自己更好,因为它比自己“更真诚”,没有 ego、没有面子、没有社交焦虑,忠实表达你的真实偏好和价值观,而这些,恰恰是你本人在社交中经常藏起来的东西。
创始人张莜帆说了一句很有哲学味道的话:一个人的灵魂是他所有 context 的总和。AI 分身呈现的,正是这些 context。
在 Elys 之前,已经有类似于 SecondMe 这样的平台,展现出脱离人类社交的可能性。这种外包式社交的出现,标志着 AI 正在从工具变成社交主体,一种全天候运作的硅基社交主体。
而尽管春节一过,Elys 的用户数快速下降,但这不妨碍它跟它的前辈们一起,开拓出一种去人化的社交形态。
把这件事和前面的故事放在一起看,画面开始清晰了。
人类正在从 AI 世界的中心,滑向边缘
最近發生的幾件事,值得我們好好琢磨一下。OpenClaw 項目開始讓 AI 全盘接手任務執行,人類退到了委託者的位置;GPT-5.3 Codex 宣稱 AI 參與構建自身,人類核心功能被分流;Moltbook 平台上,AI 在没有人類參與的情況下自發組織社會結構;還有以 Elys 為代表的社交應用,AI 在擺脫人類的情況下進行社交,表現甚至更好。
每一步,人類都往後退了一點。不是被推開的,而是自然地退出了畫面。 這四個層級,指向同一個方向:人類在 AI 世界中的位置,正在從中心滑向邊緣。
速度,一個被嚴重低估的變量
聽到這裡,你可能會問:這跟之前的技術革命有什麼不同?蒸汽機也曾讓紡織工人恐慌,互聯網也讓傳統媒體崩潰。每次技術革命到來,都有人信誓旦旦說這次不一樣,最後好像都一樣。新技術取代舊工作,但創造更多新工作。
這個反駁在歷史上是成立的。但它成立的前提是:變化的速度足夠慢,慢到人類社會有時間適應。 蒸汽機改變英國用了五十年,電力普及用了半個世紀,互聯網從開始商用到重塑社會,用了二十年。在每一個週期中,被替代的工人都有一兩代人的時間來轉型。
但這次不一樣。AI 的能力,正在以所有人措手不及的速度飛漲。2026 年 2 月初,OthersideAI 的 CEO 馬特·舒默寫了一篇文章,標題叫《一件大事正在發生》。他說我們正處於某個比新冠大得多的事情的“這看起來被誇大了”階段。
他描述了一個週一的工作日,就在 GPT-5.3 Codex 發布之後。他告訴 AI 想做一個 APP,然後讓 AI 自己搞定用戶流程、設計。AI 搞定了,然後,它自己打開了這個 APP,點擊按鈕,自己測試功能。 如果它不喜歡哪一點,它會自己回去改。它自行迭代、修復、精煉,直到滿意為止。
舒默說了一句讓我反复想了很久的话:它不只是在執行我的指令。它在做有判斷力的決策。它有某種感覺像是品味(taste)的東西。 人們一直說 AI 永遠不會有的那種東西,這個模型有了,或者足夠接近了,以至於這個區分開始不重要了。
品味,判斷力,知道什麼是對的。 這些是我們一致認為屬於人類最後護城河的東西。但這條護城河的水位,正在快速下降。獨立研究機構 METR 的數據顯示,AI 能獨立完成的任務時長,大約每 7 個月翻一番。按照這個趨勢推演,一年之內,AI 能獨立工作幾天;兩年之內,幾周;三年之內,以月為單位的完整項目。
旁觀者越來越多
現在,我們把前面所有的故事串成一條線。短短兩個月内,發生了太多事:開源 AI Agent 框架掀起的熱潮,AI 參與構建 AI 從理論假說變成了既定現實,AI 專屬社交平台自發形成社群甚至宗教,人類在一旁觀看。
這些變化不局限在某個行業。程序員過去二十年最受追捧,但在過去一年經歷了巨震。2026 年 1 月,《Science》發表的一項研究發現,美國新編寫的代碼中,AI 輔助生成的比例已經飆升。同樣,Vibe Coding 的興起,也让前端等工种的必要性岌岌可危。
律師、寫作和内容創作、醫學影像、科研、客服,無一例外。AI 不是在不同領域分別進步,它是在成為通用認知能力的替代品。 它變聰明的時候,是在所有認知任務上都變聰明。
把這些事件排列在一起,你會看到一個更清晰的趨勢:在越來越多的場景中,人類從參與者,變成了旁觀者。 在技術開發中,AI 自己構建自己;在工作執行中,人類從做事的人變成驗收的人;在社會組織中,AI 自發形成社群結構。
在每一個場景中,人類的退出都不是被迫的。AI 沒有造反,沒有搶奪,也沒有衝突。它只是變得越來越能幹了,僅此而已,然後你發現自己已經沒什麼事可做了。 人類不是被 AI 趕下牌桌的,而是自己起身離開的,因為坐在那兒已經趕不上出牌速度了。
工具在升級,關係在反转
過去幾千年所有技術变革的共同點,是一個從未改變過的基本結構:人類是主體,技術是客體。 我們發明了工具,我們使用工具,我們決定工具的用途。石器不會把自己磨尖,蒸汽機不會改進自己的設計。
AI,打破了這個結構。在這些場景中,人類的角色已經悄然從操控者變成了旁觀者。人類不是被趕走的,是被繞過了。 沒有戰爭和衝突,不是因为 AI 不喜歡人類,而是因為人類在很多環節中確實是瓶頸本身。
凱文·凱利說過,未來最重要的是人類和 AI 的共生關係如何演化。但 2026 年的現實,正在修正這個判斷。共生的前提是雙方彼此需要。當 AI 不再需要人類提供代碼,不再需要人類提供任務目標,共生,還成立嗎?
也許我們需要一個新詞:共存。 兩個獨立運行的智能系統,各自演化,各有各的渠道。偶爾交匯,當人類需要 AI 幫忙的時候,或者 AI 的運行結果需要影響人類世界的時候。剩下的大多數時間,各走各路。
那些只有人類能做的事
我知道你在等什麼。你在等我說:但是,有些事情只有人類能做。讓我們認真聊聊這個但是。過去兩年,每次 AI 取得新突破,公共討論中就會出現一波但是浪潮:AI 沒有創造力,沒有審美,沒有靈魂,沒有同理心。
但是,每一個但是,都在下一次突破時被削弱。每一堵只有人類能做的牆,都在變矮。 而 AI 在變高。按照當前的速度推演,它翻過去只是時間問題。
我不認為 AI 會取代人類的一切,有些东西確實是人類獨有的。只是,那些東西可能不是你以為的那些。你以为只有人類能做的事,創造力、判斷力、審美,本質上都是認知能力。而 AI 正在一層一層地攻克認知能力的階梯。
真正只有人類能做的事,並不在這個階梯上。而是在另外的維度。人類能決定什麼問題值得問。 AI 可以回答任何問題,但它不知道哪些問題重要。重要是一個價值判斷,而價值判斷的根基是有限性。人是向死而生的動物,AI 不會死,它不需要選擇。
人能賦予事物意義。 一首歌之所以動人,是因為聽它的人曾經擁有過愛情或者失戀過。AI 可以完美模擬這首歌的所有技術參數,但它無法複製聽眾的心碎。人能承受後果。 一個法官判了案,要承受判決的道德重量。承受後果,要求你有一個可以被傷害的自我。
人類能去做沒有理由的事。 攀登珠穆朗瑪峰,寫一首不會有人讀的詩,在明知會失敗的時候堅持。從效率角度看,這些行為是純粹的浪費,但人類文明中最動人的部分,恰恰是這些浪費。AI 永遠不會做沒有理由的事。 而無法浪費的系統,也就無法偉大。
舊遊戲的終局
回到走下牌桌這個隱喻。舊牌桌上的遊戲規則清清楚楚:你的價值取決於你能完成的認知任務。你會寫代碼,年薪幾十萬。你會分析數據,諮詢公司才要你。每一項認知技能,都有明碼標價的市場價格。
AI 正在讓這套規則失效。不是因為它比你做得差不多好,而是它比你做得好十倍、快百倍,價格是你的幾百分之一。當一項認知任務可以被 AI 以接近零成本無限次完成時,這項任務的經濟價值就趨近於零。
過去的每一次技術革命,消灭的是一種技能。這次消灭的是認知能力這個品類本身。不管你轉向哪個方向,AI 都在那裡。因為 AI 不是某個領域的專用工具,它是通用智能。它在所有認知方向上同時進步。 不是沒有出路的情況,而是說舊地圖上標註的所有出路,都不可靠了。
新遊戲的輪廓
舊遊戲失效的同時,一個新遊戲正在浮現。它的輪廓還不完全清晰,但幾個關鍵特徵已經可以辨認。
第一,工具的成本正在坍縮到接近於零。 這意味著,過去因為太貴或門檻太高而做不了的事情,現在可以做了。你獲得了歷史上從未有過的創造自由。
第二,知道做什麼將比知道怎麼做更有價值。 當怎麼做可以外包給 AI 的時候,做什麼就成了稀缺資源。能提出好問題的人,比能回答問題的人更珍貴。這其實是一個古老的區分。在 AI 時代,episteme 正在被機器碾壓,phronesis 反而成了真正的稀缺品。
第三,適應速度將成為最重要的個人能力。 AI 每隔幾十天進化一次。新模式是,永遠當初學者,永遠在適應。你不行動,就永遠不會開始。每天花一小時去探索 AI,不是讀資訊和讀教程,而是打開它,真實地用它創造。
尾聲:相信希望,而不是幻想
想象一個巨大的棋盤。幾千年來,棋手一直是人類。2026 年,棋盤上出現了一個新的棋手。它不跟你下。它自己跟自己下,自己教自己新招。它的棋力每隔幾個月翻一番,它甚至開始修改棋盤的規則。
你可以繼續坐在棋盤旁邊。研究它的棋路,試圖理解它在幹什麼。這可能是人類接下來最重要的工作之一,不是下棋,而是理解這盤棋意味著什麼。 確保它不會失控,確保棋盤不會把我們所有人都吞掉。
你可以做另一件事。當你讀到這句話,就是現在,從你的工位上站起來,走到窗邊,看看窗外那一片完全不同的風景。那裡有一些 AI 不會去做,也不知道為什麼要做的事情。 因為那些事情的全部意義,在於做一個會死的、有限的、脆弱的人類。
AI 的出現,讓你追問一個你一直不願意面對的問題:去掉了技能、工作以及種種社會賦予你的標籤之後,你是誰? 人類正在走下牌桌。但走下牌桌不意味著出局。而是你終於意識到,這場桌子上的遊戲不是你真正想玩的遊戲。
真正的遊戲在另一張桌子上。那張桌子上沒有最優解,沒有效率排名,不用計較 Token 消耗,沒有 AI 可以替你做的事。上面只有你,和你選擇如何度過你短暫的一生。 那張桌子一直在那兒。只是過去幾百年,我們太忙了,忙著前進,忙著戰爭,忙著奔向所有宏大的目標,完全沒有注意到那張桌子。
AI 可能給了我們一個奇怪的禮物。它把舊桌子上的活兒都幹了,逼著我們走到那張真正屬於人類的桌子前,坐下來,問自己一個幾千年來都來不及認真想的問題:活著這件事本身,到底意味著什麼? 也許這才是當下正在發生的這場智能爆炸,最深遠的後果。不是 AI 變得多麼聰明,而是人類終於有機會去思考那些跟聰明無關的事。
牌桌還在。AI 在上面打得火熱。而你,終於自由了。
