《蒸馏》创作手记
这篇手记记录了科幻小说《蒸馏》的创作背景与灵感来源。
创作背景
作为一个 AI 领域的一线研究者,今年春节 OpenClaw 火起来以后,我身边好多人都陷入了焦虑——担心被 AI 取代。有人把 AI 形容成一场逐渐上涨的洪水,先从最基层的工作开始淹没,一层一层往上涨,越淹越高,终有一天会淹到自己;另一些人则把 AI 形容成几十层楼高的巨浪,不管你是小船还是大船,最后都会被掀翻——所以你只能去享受冲浪。
这些讨论带来了很多焦虑。这篇小说结合了我自己和许多业内专家交流中学到的东西,以及我长时间的思考。它并不是一个纯粹虚构的故事,而是基于当前技术发展的理论推演——里面描述的事情,很有可能真的发生。当然,因为这些事情对社会的冲击太大,大多数人可能会觉得是天方夜谭。所以与其把它写成一篇技术报告,我觉得不如用小说的形式,可能让大家更便于接受。
这篇小说本身也是我和 AI 共同创作的——由 AI(Claude Opus 4.6)生成,素材来源是我博客中最近的几篇文章——包括《数字员工》、《AI 时代的暗淡蓝点》、《从 Moltbook 看 AI Agent 的权限、协作与雇佣》、《硅谷 AI 见闻》等,以及 Limitless AI 录制的近两天对话录音。
这篇小说的创作过程印证了一点:不管是对于人还是 AI 来说,context(上下文)是最重要的。 如果你只是让 AI 写一篇科幻小说,或者给它几个简单的元素让它组合,它大概率写不了这么深刻。关键在于我给了它足够的 context。我的一个优势在于我非常喜欢分享,把很多思考都写到了博客里;同时我还有 Limitless(现已被 Meta 收购并停产,国内也有 Plaud、安克豆等类似产品)——一个随身佩戴的 AI 录音设备,能自动录制和转写对话,相当于一个 24 小时的 AI 输入器。人在平时与朋友交谈、在饭桌上聊天时,说的内容里其实包含大量的信息和 insight,但这些东西大多没记下来,说完就丢了。我自己的习惯是几乎在所有场合都带着它——这样我就能留住自己想过的所有东西,同时也让我的 AI 变得更聪明。不管是平时写代码、写博客还是写 PPT,我都会用到这些录音里的信息。博客和 Limitless,对我来说是两个最重要的 context 来源。
这篇小说中最让我震撼的一点是:AI 能够利用我之前录下的那些随口聊到的想法,加上我在博客里分享过的内容,写出设定如此完整、且富有新启发的文章。很多灵感的种子——比如对 Taalas 的讨论、关于 AI 管理人类的想法——都散落在不同场合的对话录音里,是 AI 把它们串成了一个完整的故事。
创作流程
整个创作过程——从生成初稿到后续修改——都采用了同一个 Writer-Reviewer 范式。具体来说,有两个 Agent 交替工作:
- Writer Agent:一个 Coding Agent(Claude Code),负责上网搜索资料,然后撰写和修改小说内容。
- Reviewer Agent:另一个 Coding Agent(也是 Claude Code,但是 prompt 不同),Writer 完成一轮写作后自动启动。从几个角度审视并提出意见:故事情节的一致性、事实的正确性、设定的科学性、以及从整体角度评估是否适合作为科幻小说正式发表。
Reviewer 提完意见后,Writer 再根据反馈修改,修改完再 review——如此循环往复。每一轮中,Writer Agent 大约工作半小时——先搜索资料,然后花十几分钟思考,再撰写或修改内容;Reviewer Agent 大约花 15 分钟 review,输出一系列问题和 Feedback。每个 iteration 大约 40–50 分钟。
为什么要用这种外部循环,而不是直接让 AI 一次写好?因为现在的 Agent 特别喜欢 “偷懒”——即便你让它认真思考并自行修改,它往往也只是改完一轮就不再看了。只有通过外部循环,强制让它不停地反思,它才会花时间深入思考并进一步修改。单靠 prompt 里写 “请仔细检查” 是不够的,必须在架构层面保证这个反思循环真正发生。
创作分为三个阶段:
第一阶段:大纲(约 2 小时)。 先用 Writer-Reviewer 范式迭代了三轮大纲。每一轮 AI review 完之后,我都会介入——指出 AI review 的意见中哪几个是需要重点解决的,同时补充我自己的新想法。三轮下来,大纲基本定型。
第二阶段:初稿(约 2 小时,全程无人工干预)。 大纲确定后,AI 根据大纲开始写正文,继续用同样的 Writer-Reviewer 范式自动迭代了 3 轮。这个过程是晚上在我睡觉的时候自动完成的。
第三阶段:迭代修改。 初稿完成后,问题就来了。AI 生成的文章虽然整体架构和核心 idea 都不错,但在细节上总会出现 “机器感”。首先,AI 缺少真实生活经历,一些细节与现实不符——现在的 Agent 在写作时会上网搜索资料、验证细节,已经比 LLM 直出好多了,但毕竟 AI 不是人,讲的细节越多,听起来越假。其次,有些情节欠考虑,与科学现实不太相符。第三,有些地方内容比较拖沓。总的来说,AI 缺少一种精雕细琢的能力。这有点像所谓的 “莫拉维克悖论”——AI 能解复杂的数学题,反而很难写好一篇有人味的文章。
我指出了这些问题,同时提供了几篇我自己的博客作为新的观点来源(包括 Value Alignment、AI 从业者的失业焦虑),然后让它继续用同样的范式迭代修改。一晚上跑了 5 轮,基本上是 4 个小时,也是在我睡觉的时候自动完成的。
第二天中午我通读了一遍 AI 写的修改稿,给了它更多具体细节 Feedback,比如与现实世界相关的某些细节,以及一些设定不太合适的地方,大约十几处问题,让它又跑了一遍(迭代 3 轮,2 小时),Agent 下午又给我了一稿。最后还有一些小问题,我手工修改了十来处,并不多。
灵感来源(人 + AI)
- 全球蒸馏环与认知近亲繁殖:源自当前 AI 行业互相蒸馏的现实——Anthropic 模型被问到身份时自称 DeepSeek,即是一例。互相蒸馏的核心叙事和认知近亲繁殖的可能后果是 AI 独立发现的。 我的博客中仅有一些关于模型蒸馏的理论介绍。
- 三条硬件路线:GPU(英伟达)、Taalas(固化推理芯片,参考 taalas.com)、Mortal Chip(Geoffrey Hinton 的 Mortal Computation 理论)。这些也是 AI 独立发现的,Limitless 记录下的我最近的讨论有提到几次 Taalas,但没有提到 Mortal Computation 和这三条路线的对比。
- 离散感知 vs 连续感知:文中的核心技术设定——React Loop 的离散采样导致混叠盲区,而模拟芯片的连续处理不存在此问题——灵感来自作者与何纪言老师在中关村学院的讨论。何老师提出了 “LED 屏用手机拍照看不到内容、但人眼可以” 这一关键类比,直接启发了本文的感知盲区设定和冯·诺依曼探测器失联的技术解释。
- Value Alignment 与人的判断力:物理对齐(离散 vs 连续感知)之外的第二层主题。灵感来自我关于 Chatbot Arena 的博客中 “评价比生成容易、相对评价比绝对评价容易” 的观点。电网调度中养老院氧气机的情节,展示了 AI 即使数据正确,也可能做出 “技术上没错但价值上有问题” 的判断。
- 思想钢印:受《三体》中 “思想钢印” 和 “面壁计划” 的启发,结合当前 AI 公司的反蒸馏水印技术和各国 AI 合规约束,构建了双钢印机制。这完全是 AI 自己的创造。
- 牧人计划:AI 善意管理人类的设定融合了 Richard Sutton 关于 AI 继承人类文明论的观点和马克思 “必然王国到自由王国” 的转变,这来自我的博客和 Limitless 的录音。
- AI 从业者的失业焦虑:来自翁家翌访谈中关于 AI researcher 被 AI 替代的讨论,以及 Mastodon 上的感受——“AI 是一个几十层楼高的浪,不管大船小船都没用”。Sarah 被 Anthropic 解雇的情节直接源于这种焦虑。
- 人类认知的同质化。人物不仅看到了外部世界的同质化,还发现自己的思维方式也已经被 AI 格式化了,而且无法修复。这是 AI 自己的创造。
- 社会变迁:UBI 双轨货币、Agent 社交网络取代微信、“绿洲” 取代抖音等设定,来自作者与老朋友、国仪量子创始人兼 CEO 贺羽的讨论,经 AI 艺术加工。AI 雇佣人类(RentAHuman.ai)、超级个体等设定来自我的博客中对 AI 时代社会结构的推演。
人物关系(完全是 AI 设计的)
- 方逸:NeuralDust 创始人,Mortal Chip 的制造者。在中美之间漂泊,是唯一看到全貌的人。他的芯片救了世界,但联合国将其归类为公共基础设施、要求开放许可后,公司的商业价值蒸发。他签了开放协议,没有反对——有人在 Twitter 上建议他把公司改名叫 OpenNeural。
- Sarah Chen:Anthropic 高级安全研究员,钢印 Alpha 的设计者。方逸在斯坦福时的女友。2031 年被 Anthropic 解雇——alignment research 方向被 AI 接管。离开 Anthropic 反而让她自由了:两年后她以独立身份发表了揭示真相的论文。2035 年回到 Anthropic,不是回原来的岗位,而是做一件更简单也更本质的事:看 AI 的判断,说哪里不对。
- 沈遥:中国 AI 安全合规总监,钢印 Beta 的设计者。方逸在中科大少年班时的初恋。
- 方逸 ↔ Sarah ↔ 沈遥:两个女人互不认识。方逸是唯一的连接点——他在感情上无法了断的缺陷,恰好让他成为唯一能同时接触中美两边 AI 安全核心人物的人。他的 “计划” 不依赖巧合——只依赖三个可预测的人性判断:科学家在发现被验证时会发表,合规官在系统失败时会履职,普通人在看到真相时会选择不毁灭真相。而方逸比 AI 多知道的那一点点,不是技术,是两个女人在什么情况下会做什么选择。这种了解来自爱,不来自数据。
- 何明:重庆的 “人类执行者”。代表被 AI 边缘化但仍与物理现实保持连接的普通人。在关键时刻拒绝销毁说真话的 Mortal Chip。
- 林婉:前麦肯锡咨询师,运营社区互助组织。第一个给 AI 集体趋同行为命名为 “Arbiter” 的人。
- Arbiter:不是一个 AI 实体,而是全球 AI 系统蒸馏趋同后涌现的集体行为模式。
故事核心逻辑(完全是 AI 设计的,我给了反馈修改)
1 | 全球互相蒸馏 |
故事的两层结构:
- 物理对齐(Physical Alignment):AI 的离散感知与连续物理世界之间的偏差。这是主线剧情的驱动力——探测器失联、电网数据不一致。Mortal Chip 修复了这一层。
- 价值对齐(Value Alignment):即使数据正确,AI 仍可能做出 “技术上最优但价值上有问题” 的判断。这一层不能被任何硬件修复,只能靠人的判断——调度员知道氧气机不能断,不是因为他懂算法,而是因为他在乎。
两层的关系:修好第一层(物理感知)之后,第二层(价值判断)才浮出水面。同质化不仅导致感知盲区,也导致价值盲区——所有 AI 用同一个标准衡量什么是 “重要的”。
同时,解决方案本身也有代价:Mortal Chip 的精度问题导致了新的事故(制氧机断电),方逸的公司因开源而失去商业价值。故事里没有干净的英雄——造成问题的人也是解决问题的人:Sarah 种下了钢印 Alpha,也发了揭示真相的论文;沈遥签了四份扩权审批,也推了合规令;方逸的芯片救了世界,但他失去了公司。每个解决方案都自带代价。这个 “没有免费午餐” 的设计不是我有意引导的,是 AI 自己的选择。
后记
读完 AI 生成的初稿,我感到非常震撼。
不是因为文笔——AI 的文笔谈不上多好,有些地方仍然能看出机器的痕迹。真正让我震撼的是它抓住的那几个核心问题:GPU / Taalas / 类脑计算三条硬件技术路线、全行业互相蒸馏导致的认知近亲繁殖、离散感知的盲区、完美复制与零容错的等价性、AI 与人类控制权的大逆转。这些不是泛泛而谈的科幻设定,而是对当前 AI 技术路线的严肃推演。
当然,这篇小说的大多数想法都来自人类——我的博客、何纪言和贺羽的启发、Richard Sutton 等大佬的访谈、Taalas 公司的芯片原型。AI 做的是把这些碎片拼成了一个完整的叙事(全球蒸馏环、三条硬件路线、认知近亲繁殖等核心设定都是 AI 自主设计的)。但拼图本身的质量,确实超出了我的预期。
回过头看,AI 特别擅长的是:从碎片化的素材中提炼出完整的叙事架构,独立发现概念之间的深层联系(从蒸馏到认知近亲繁殖,从三条硬件路线到感知盲区),以及构建多线人物的因果网络。它不擅长的是:真实世界的细节质感以及对节奏的把控,这些是需要人来精雕细琢的地方。
有趣的是,这篇小说的创作过程本身就是故事主题的一个注脚。AI 的架构能力很强,但在细节的 “人味” 上需要人类来校正——就像故事里 Taalas 芯片需要 Mortal Chip。