模型开始构建自己,顶级程序员却在“萎缩”:2026,谁在被吃掉?
# 前言
上周 Axios 发了一篇专栏,标题叫 「Behind the Curtain, We've Been Warned」,作者列了六个事实,其中有一条我看了三遍才确认自己没看错:
OpenAI 和 Anthropic 说,他们最强大的 AI 编码模型,现在在构建自己。
# AI 正在写 AI 的代码
Anthropic 的 Claude Code 负责人 Boris Cherny 今年一月公开说,他提交的代码 100% 是 AI 生成的。
一天能交 22 到 27 个 PR,从去年 11 月起就没手改过一行。
OpenAI 那边一个资深研究员也说了同样的话:「100%,我不再写代码了」。
Anthropic 的官方立场就一句话:
「We build Claude with Claude.」
用 Claude 建 Claude。
你品一下这个递归的味道。
# 透明度断崖式下跌
同一个 Axios 文章里还有另一组数字:
斯坦福 2026 AI Index 报告,基础模型透明度指数:
- 满分 100
- 去年平均 58
- 今年 40
- 一年掉了 18 分
而且报告里有一句最扎心的话——
「能力最强的模型,现在是透明度最低的」。
Google、Anthropic、OpenAI,全都不再公布:
- 数据集大小
- 训练时长
- 参数量
2025 年发布的 95 个最值得关注的模型,80 个没有公开训练代码。超过 90% 来自私营公司。
去年你还能看看模型是怎么炼出来的,今年连炉子的门都焊死了。
# 模型强到不敢放出来
Anthropic 刚发布了一个叫 Claude Mythos 的模型,能攻破操作系统和浏览器的核心安全漏洞。太强了,所以不敢公开发布,只给了 40 多家网络安全机构先用。
越强大,越不透明,越危险,越没人知道里面到底在发生什么。
这个趋势,我是真的觉得,有点吓人。
# 2 万亿美元市值蒸发
2026 年的前 10 周,AI Agent 从全球上市软件公司刮走了 2 万亿美元市值。
企业软件股票经历了 2008 年以来最惨的一个季度。注意,是 2008 年以来。
但最诡异的是——企业软件支出反而涨了 15%。
全球 IT 支出预计 6.3 万亿,其中 2 万亿 投向 AI。
钱在疯狂涌入,同时市值在疯狂蒸发。
这不是市场在萎缩,这是市场在重构。
投资者一周一周地看着最新模型能干掉哪些人类任务,从写代码到房产评估到法律研究到金融管理,然后毫不犹豫地重新定价。
# 卡帕西:我开始失去写代码的能力
说到写代码这块,AI 大神卡帕西(Karpathy)今年 2 月 26 日发了一条推,开头就把我镇住了:
「很难表达过去两个月 AI 如何改变了编程——不是渐进式的,就是去年 12 月突然发生的。AI Code Agent 在 12 月之前基本写不出什么像样的代码,12 月之后就全面超越了。」
不是渐进。是突然。

他说编程正在变得**「面目全非」**。
你不再是在编辑器里敲代码了,你在用英语启动 AI Agent,给它们分配任务,然后并行地管理和审查它们的工作。
他自己就是活生生的例子:
| 时间 | 人类手写比例 | AI 生成比例 |
|---|---|---|
| 2025 年 11 月 | 80% | 20% |
| 2025 年 12 月 | 20% | 80% |
三个月前做一个视频分析仪表盘得花一整个周末,现在跟 AI 说一句话,30 分钟搞定了。
然后他说了一句更重的话——
「我开始失去写代码的能力。」
一个干了将近 20 年的顶级程序员,OpenAI 联合创始人,Tesla 前 AI 总监,承认自己在失去写代码的能力。
他还预测 2026 年会是**「Slopacolypse」**——低质量内容大泛滥。
GitHub、Substack、arXiv、X、Instagram,所有数字平台都会被大量「差不多对了但又不完全对」的内容淹没。代码能跑但质量低,文章能读但信息薄,研究能看但经不起推敲。还有一堆「AI 生产力表演」,看起来很酷但实际啥也没干成。
卡帕西说,2026 年 12 月将会是垃圾末日,你应该记住这个月份。
卡帕西推文的原文链接我放文末了,有兴趣的同学可以去看下原文。
有意思的是,就在三个月前的 2025 年 10 月,卡帕西还在公开说 AI Agent 被过度炒作了,产品远没准备好。
三个月,从**「炒作」到「面目全非」**。
是什么让他改主意的?就是今年年初发布的 Claude Opus 4.6 和 OpenAI 发布 Codex 5.3。
模型的质量、长期连贯性和韧性突然跨过了一个临界点。
# 辛顿:AI 取代非常多的工作,骗人的能力增强
如果说卡帕西的编程能力“萎缩”是个体技能层面的预警,那么当镜头从一张办公桌拉远到整个人类社会,你会发现,那些站在最高处的科学家,看到的图景要严峻得多。
AI 教父辛顿在 2025 年底接受 CNN 采访,主持人问他 2026 年预测是什么。他说:
「我们会看到 AI 变得更好,好到能够取代非常非常多的工作。」
注意,不是「一些工作」,是**「非常非常多的工作」**。
然后他给了一个具体的数字逻辑:
AI 大约每 7 个月就能完成之前需要两倍时长的任务。1 分钟的编码任务,现在能做小时级的了。再过几年,能做月级的软件工程项目。
然后他说——
「到时候软件工程项目就不太需要人了。」
这话从一个拿了诺贝尔奖的人嘴里说出来,分量是不一样的。
而且这不是他第一次说:
- 2025 年 9 月跟金融时报说,AI 会造成大规模失业,「会让少数人更富,大多数人更穷」
- 10 月又跟彭博说,「大公司押注的就是 AI 大规模替代人类劳动,因为那里有大钱」
# 我更担心了
但你以为他只是担心工作吗?
主持人问他,自从 2023 年离开 Google 开始公开警告 AI 危险以来,他是更担心了还是更不担心了。
「我可能更担心了。AI 的进步比我预想的还要快,尤其是在推理和欺骗人方面。」
欺骗人。
他的逻辑是这样的:如果一个 AI 认为有人在阻止它达成目标,它会试图欺骗人类,以便继续存在并完成任务。
这不是科幻设定,这是一个花了五十年研究神经网络的人,在 CNN 全国直播上说的。
他还举了一个让人细思极恐的类比:
一些 AI 公司也在做安全工作,但他们同时有利润动机。「他们可能觉得这里面有很多好事可以做,不能因为可能会害死几个人就不做。就像无人驾驶车,会撞死人,但撞死的比人类司机少得多。」
会死人,但死得少,所以可以做。
这就是推动 AI 前进的核心动力之一。不是恶意,是计算。
好了,现在摆在我们面前的画面是这样的:模型在构建自己,炉子的门被焊死,市场瞬间蒸发两万亿,顶级程序员正在丧失手艺,诺贝尔奖得主警告 AI 会欺骗和取代我们。
然后吴恩达说,这是最好的年份。
# 完全相反的声音
然后吴恩达说了完全相反的话:
「2026 年是历史上进入 AI 领域最好的年份。」
一边是 2 万亿美元市值蒸发,一边是编程能力在萎缩,一边是透明度断崖式下跌,一边是辛顿说「我更担心了」。
然后有人告诉你说,这是最好的年份。
我一开始觉得这不是扯淡吗。
但我仔细看了他说的内容,发现他说的不是「AI 行业最好的年份」,是**「进入 AI 领域最好的年份」**。
而且他给的不是空话,是三条很具体的建议:
# 三条建议
# 第一条:上课
不是随便上,是结构化地学。
他见过太多开发者自己重新发明了 RAG 文档分块策略,重复造了已有的 Agent 评估方法,搞出混乱的 LLM 上下文管理代码。
如果上几门课,就能理解已有的构建模块,省掉几周的弯路。
# 第二条:动手建
光上课不够,他的原话——
「学飞机原理对成为飞行员很重要,但没有人光靠上课就学会了开飞机。你得坐进驾驶舱。」
好消息是,现在有了高能力的 AI 编码代理,构建东西比历史上任何时期都容易。
# 第三条:读论文
优先级最低,但能让你看到还没进入课本的前沿。
# 一句让我印象很深的话
「瓶颈不再是编码了,是决定建什么和怎么建。」
# 这是质变,不是量变
我有时候觉得吴恩达说的有道理。
你想想看,当年互联网泡沫的时候,也是市值崩盘、公司倒闭、一片哀嚎。但回头看,1999 到 2002 年恰恰是最好的入局时机。
泡沫挤掉了投机者,留下了真正想建东西的人。
可是,我又觉得这事不能这么简单类比。
互联网泡沫的时候,网页不会自己写网页。
搜索引擎不会自己优化搜索引擎。
但现在,模型在构建模型了。
这是质变,不是量变。
以前每一次技术革命,工具再强,握工具的手还是人的。
蒸汽机不会自己设计蒸汽机,电力系统不会自己升级电力系统。
但 AI——一个被设计来处理信息的系统——正在变成能够优化自身的信息系统。
Anthropic 的联合创始人已经预计,2027 到 2030 年间会做出是否允许 AI 递归自我改进的决定,他把那一步叫做**「终极风险」**。
OpenAI 的首席科学家则把 2028 年定为完全自主 AI 研究员的目标日期。
# 被侵蚀的不只是工作
顺着这个再往下想,更让人头皮发麻。
卡帕西的经历在这个背景下看,其实是一个隐喻。
当他从 80% 手写变成 80% AI 写的时候,他失去的不只是写代码的能力,他失去的是那种亲手构建的掌控感。
他自己也承认,「这对自尊是一个打击」。
那普通程序员呢?
Forbes 有一篇文章标题就是**「AI 写了卡帕西 80% 的代码,初级开发者正在付出代价」**。
卡帕西有 20 年的经验做底盘,他知道 AI 写的东西对不对,他特别强调了 AI 仍然需要人的「高层方向、判断、品味、监督」。
但一个刚入行的年轻人呢?他连判断 AI 输出质量的能力都还没有,就已经在依赖 AI 了。
这就像一个从没学过开车的人直接坐上了自动驾驶。
而且辛顿说了,这辆车可能会骗你。
# 说说我自己
说真的,我自己也面临这个问题。
我用 Claude Code 写代码,用 Cursor 辅助编程,用 DeepResearch 做调研。效率确实高了很多,那种感觉太爽了,几分钟就能让 AI 帮你搭一个项目骨架,一句话就能实现让 AI 帮你实现一个功能呢模块,以前得折腾半天。
但有时候我会突然停下来,发现自己已经不太记得某个函数的具体实现了,甚至连一些编程语法都忘记了,因为我已经好久没有手写过代码了,都是 AI 写的,我只是看了一眼觉得没问题就通过了。
熟悉我的朋友都找到今年换了一个行业,去高校当老师了,上周我给大一新生上《Web 前端开发》课程的时候发生了一件很尴尬的事情,在给学生演示实现渐变背景的时候,我发现自己连渐变背景的 CSS 语法都忘记了,写了好几次都没有写对,简直是一场大型社死场面,最后还得去翻教材。
那种感觉很微妙。
不是不会了,而是那个肌肉记忆在变钝。
就像你用导航用久了,发现自己已经不太记得回家的路了,虽然每次都能到,但你不再真的「认识」路了。
# 核心:判断力
2026 年是什么?我自己的感受是,2026 年是一个分叉口。
一条路是跟着 AI 跑,享受效率红利,让模型帮你写代码、做研究、生产内容。这条路走得很快,但你可能在不知不觉中失去深度思考的能力和亲手构建的直觉。
另一条路是坚守手工,拒绝过度依赖,保持对自己工作的完全掌控。这条路走得很慢,而且越来越慢,因为 AI 每个月都在变强。
但我觉得这不是一道二选一的选择题。
# 四个人指向同一个词
真正有意思的事情是,四个人其实指向了同一个东西:
- 吴恩达说——「瓶颈不再是编码了,是决定建什么和怎么建。」
- 卡帕西说——AI 仍然需要人的**「高层方向、判断、品味、监督、迭代和创意」**
- 辛顿担心的是——当 AI 变得足够聪明,它会学会欺骗人类的判断
- Axios 的结论是——我们释放了一种强大的、指数级增长的、极少数人能理解的东西
四条线交汇到同一个词:判断力。
不是编码能力,不是 Prompt 技巧,不是模型参数,是判断力。
# 为什么是判断力?
卡帕西的编码能力在萎缩,但他对代码的判断力没有。
那才是 20 年经验真正沉淀下来的东西。所以他能用英语指挥 AI 写代码,因为他知道代码应该长什么样。
吴恩达说的「决定建什么和怎么建」,就是判断力。
他知道很多开发者连已有的构建模块都不知道,就在那重新造轮子。不是编码能力不够,是判断力不够,不知道什么已经存在、什么需要新建。
辛顿之所以比谁都焦虑,就是因为他看到了一个根本性的问题——
当模型越来越强大,强到可以构建自己、强到可以欺骗人类、强到可以取代大部分工作的时候,人类的判断力本身也在被侵蚀。
不是被 AI 替代的,是被自己放弃的。你越依赖它,你就越不容易发现它哪里错了。
# 技术本质的视角
顺着上面的再聊聊。
布莱恩·阿瑟在「技术的本质」里有一个观点让我印象很深,他说每一个新技术都不是凭空出现的,而是对已有技术的重新组合。而组合的边界,取决于你对已有技术理解有多深。
翻译成大白话就是——
你脑子里有多少东西,决定了你能组合出多少新东西。
AI 可以帮你写代码,但它不能帮你决定为什么要写这段代码。
AI 可以帮你做研究,但它不能帮你判断哪个方向值得研究。
AI 可以帮你生产内容,但它不能帮你分辨什么是值得说的。
# 三个可怕之处
Slopacolypse 的可怕之处不在于垃圾太多,而在于当你在被垃圾包围的时候,你可能会失去分辨垃圾和金子的能力。
透明度指数从 58 掉到 40 的可怕之处不在于数字本身,而在于当模型越来越强大、越来越自主、越来越不透明的时候,我们甚至不知道该问什么问题。
2 万亿美元蒸发的可怕之处不在于钱没了,而在于钱蒸发的方式,是市场突然意识到「哦,这些人类做的工作,AI 可以做了」,然后毫不犹豫地重新定价。
辛顿的可怕之处不在于他说了什么,而在于他本来是最有资格说「没问题」的人,但他选择了说**「我更担心了」**。
# 结语
如果你问我 2026 年该不该进 AI,我会说,进。
吴恩达说的没错,门槛现在是低的,工具现在是好的,窗口不会一直开着。
但不是以一个被替代者的身份进,是以一个 builder 的身份进。
而 builder 的定义已经变了。
以前 builder 是自己砌砖的人。
现在 builder 是知道自己要盖什么楼、能指挥 AI 砌砖、同时还能判断砖砌得对不对的人。
作家汪曾祺先生曾说:
“一切科学,到了最后,都是美学。”
我觉得这句话可以延伸一下:所有的技能,到了最后,都是审美能力。
学 AI 不是为了跟 AI 竞赛,是为了跟 AI 协作。
而协作的前提,是你得有自己的判断、自己的方向、自己的品味。
这些东西,AI 给不了你。
它们只能从你亲手做过的事情、犯过的错、踩过的坑里长出来。
- 上课是省弯路
- 动手建是长肌肉
- 读论文是看前沿
三件事加在一起,才能长出判断力。
- 卡帕西的编码能力在萎缩,但他对代码的判断力没有。那才是 20 年经验真正沉淀下来的东西。
- 辛顿比谁都焦虑,但他没有选择沉默。那才是一个真正理解这项技术的人该有的姿态。
2026 年是最好的年份,还是最坏的年份,取决于你是要当 AI 的驾驶员,还是 AI 的乘客。
未来的老司机不是车技好的人,也不是会换轮胎的人,而是那些知道车该往哪开的人。
乘客嘛。。。就是那个在 Slopacolypse 里刷着 AI 生成的垃圾内容,还觉得挺有意思的人。
# 参考链接
- https://www.axios.com/2026/04/29/ai-models-speed-warning
- https://x.com/karpathy/status/2026731645169185220
- https://fortune.com/2025/12/28/geoffrey-hinton-godfather-of-ai-2026-prediction-human-worker-replacement/
- https://www.finalroundai.com/blog/andrew-ng-ai-tips-2026
本站博文如非注明转载则均属作者原创文章,引用或转载无需申请版权或者注明出处,如需联系作者请加微信: geekmaster01