飞行的蜗牛

vuePress-theme-reco 极客学长    2013 - 2026
飞行的蜗牛 飞行的蜗牛

Choose mode

  • dark
  • auto
  • light
首页
分类
  • 技术杂谈
  • Database
  • Docker
  • PHP
  • 前端开发
  • 随笔杂谈
  • Jekyll
  • FunnyTools
  • 读书笔记
  • Java
  • SpringBoot
  • 区块链技术
  • IPFS
  • C/C++
  • Filecoin
  • Golang
  • Sharding-JDBC
  • 分布式存储
  • Lotus-源码系列
  • Lotus
  • Spring-源码系列
  • 框架源码系列
  • AI
  • ChatGPT
  • Stable Diffusion
  • 商业
  • DeepSeek-R1
  • DeepSeek-V3
  • 缩放定律
  • 教育
  • 工具
  • 大模型
  • 创业
  • 逆向学习法
  • 递归学习
标签
时间抽
关于作者
开源项目
GeekAI (opens new window)
author-avatar

极客学长

163

文章

254

标签

首页
分类
  • 技术杂谈
  • Database
  • Docker
  • PHP
  • 前端开发
  • 随笔杂谈
  • Jekyll
  • FunnyTools
  • 读书笔记
  • Java
  • SpringBoot
  • 区块链技术
  • IPFS
  • C/C++
  • Filecoin
  • Golang
  • Sharding-JDBC
  • 分布式存储
  • Lotus-源码系列
  • Lotus
  • Spring-源码系列
  • 框架源码系列
  • AI
  • ChatGPT
  • Stable Diffusion
  • 商业
  • DeepSeek-R1
  • DeepSeek-V3
  • 缩放定律
  • 教育
  • 工具
  • 大模型
  • 创业
  • 逆向学习法
  • 递归学习
标签
时间抽
关于作者
开源项目
GeekAI (opens new window)
  • 模型开始构建自己,顶级程序员却在“萎缩”:2026,谁在被吃掉?

    • 前言
      • AI 正在写 AI 的代码
        • 透明度断崖式下跌
        • 模型强到不敢放出来
      • 2 万亿美元市值蒸发
        • 卡帕西:我开始失去写代码的能力
          • 辛顿:AI 取代非常多的工作,骗人的能力增强
            • 我更担心了
          • 完全相反的声音
            • 三条建议
            • 一句让我印象很深的话
          • 这是质变,不是量变
            • 被侵蚀的不只是工作
              • 说说我自己
            • 核心:判断力
              • 四个人指向同一个词
              • 为什么是判断力?
              • 技术本质的视角
              • 三个可怕之处
            • 结语
              • 参考链接

              模型开始构建自己,顶级程序员却在“萎缩”:2026,谁在被吃掉?

              vuePress-theme-reco 极客学长    2013 - 2026

              模型开始构建自己,顶级程序员却在“萎缩”:2026,谁在被吃掉?


              极客学长 2026-05-03 0 Anthropic OpenAI Claude Claude Code Claude Mythos Codex Axios Stanford AI Index AI Index Karpathy 卡帕西 Geoffrey Hinton 辛顿 Andrew Ng 吴恩达 AI Agent AI 编程 模型透明度 软件行业 判断力 递归自我改进

              # 前言

              上周 Axios 发了一篇专栏,标题叫 「Behind the Curtain, We've Been Warned」,作者列了六个事实,其中有一条我看了三遍才确认自己没看错:

              OpenAI 和 Anthropic 说,他们最强大的 AI 编码模型,现在在构建自己。


              # AI 正在写 AI 的代码

              Anthropic 的 Claude Code 负责人 Boris Cherny 今年一月公开说,他提交的代码 100% 是 AI 生成的。

              一天能交 22 到 27 个 PR,从去年 11 月起就没手改过一行。

              OpenAI 那边一个资深研究员也说了同样的话:「100%,我不再写代码了」。

              Anthropic 的官方立场就一句话:

              「We build Claude with Claude.」

              用 Claude 建 Claude。

              你品一下这个递归的味道。

              # 透明度断崖式下跌

              同一个 Axios 文章里还有另一组数字:

              斯坦福 2026 AI Index 报告,基础模型透明度指数:

              • 满分 100
              • 去年平均 58
              • 今年 40
              • 一年掉了 18 分

              而且报告里有一句最扎心的话——

              「能力最强的模型,现在是透明度最低的」。

              Google、Anthropic、OpenAI,全都不再公布:

              • 数据集大小
              • 训练时长
              • 参数量

              2025 年发布的 95 个最值得关注的模型,80 个没有公开训练代码。超过 90% 来自私营公司。

              去年你还能看看模型是怎么炼出来的,今年连炉子的门都焊死了。

              # 模型强到不敢放出来

              Anthropic 刚发布了一个叫 Claude Mythos 的模型,能攻破操作系统和浏览器的核心安全漏洞。太强了,所以不敢公开发布,只给了 40 多家网络安全机构先用。

              越强大,越不透明,越危险,越没人知道里面到底在发生什么。

              这个趋势,我是真的觉得,有点吓人。


              # 2 万亿美元市值蒸发

              2026 年的前 10 周,AI Agent 从全球上市软件公司刮走了 2 万亿美元市值。

              企业软件股票经历了 2008 年以来最惨的一个季度。注意,是 2008 年以来。

              但最诡异的是——企业软件支出反而涨了 15%。

              全球 IT 支出预计 6.3 万亿,其中 2 万亿 投向 AI。

              钱在疯狂涌入,同时市值在疯狂蒸发。

              这不是市场在萎缩,这是市场在重构。

              投资者一周一周地看着最新模型能干掉哪些人类任务,从写代码到房产评估到法律研究到金融管理,然后毫不犹豫地重新定价。

              # 卡帕西:我开始失去写代码的能力

              说到写代码这块,AI 大神卡帕西(Karpathy)今年 2 月 26 日发了一条推,开头就把我镇住了:

              「很难表达过去两个月 AI 如何改变了编程——不是渐进式的,就是去年 12 月突然发生的。AI Code Agent 在 12 月之前基本写不出什么像样的代码,12 月之后就全面超越了。」

              不是渐进。是突然。

              卡帕西推文截图

              他说编程正在变得**「面目全非」**。

              你不再是在编辑器里敲代码了,你在用英语启动 AI Agent,给它们分配任务,然后并行地管理和审查它们的工作。

              他自己就是活生生的例子:

              时间 人类手写比例 AI 生成比例
              2025 年 11 月 80% 20%
              2025 年 12 月 20% 80%

              三个月前做一个视频分析仪表盘得花一整个周末,现在跟 AI 说一句话,30 分钟搞定了。

              然后他说了一句更重的话——

              「我开始失去写代码的能力。」

              一个干了将近 20 年的顶级程序员,OpenAI 联合创始人,Tesla 前 AI 总监,承认自己在失去写代码的能力。

              他还预测 2026 年会是**「Slopacolypse」**——低质量内容大泛滥。

              GitHub、Substack、arXiv、X、Instagram,所有数字平台都会被大量「差不多对了但又不完全对」的内容淹没。代码能跑但质量低,文章能读但信息薄,研究能看但经不起推敲。还有一堆「AI 生产力表演」,看起来很酷但实际啥也没干成。

              卡帕西说,2026 年 12 月将会是垃圾末日,你应该记住这个月份。

              卡帕西推文的原文链接我放文末了,有兴趣的同学可以去看下原文。

              有意思的是,就在三个月前的 2025 年 10 月,卡帕西还在公开说 AI Agent 被过度炒作了,产品远没准备好。

              三个月,从**「炒作」到「面目全非」**。

              是什么让他改主意的?就是今年年初发布的 Claude Opus 4.6 和 OpenAI 发布 Codex 5.3。

              模型的质量、长期连贯性和韧性突然跨过了一个临界点。


              # 辛顿:AI 取代非常多的工作,骗人的能力增强

              如果说卡帕西的编程能力“萎缩”是个体技能层面的预警,那么当镜头从一张办公桌拉远到整个人类社会,你会发现,那些站在最高处的科学家,看到的图景要严峻得多。

              AI 教父辛顿在 2025 年底接受 CNN 采访,主持人问他 2026 年预测是什么。他说:

              「我们会看到 AI 变得更好,好到能够取代非常非常多的工作。」

              注意,不是「一些工作」,是**「非常非常多的工作」**。

              然后他给了一个具体的数字逻辑:

              AI 大约每 7 个月就能完成之前需要两倍时长的任务。1 分钟的编码任务,现在能做小时级的了。再过几年,能做月级的软件工程项目。

              然后他说——

              「到时候软件工程项目就不太需要人了。」

              这话从一个拿了诺贝尔奖的人嘴里说出来,分量是不一样的。

              而且这不是他第一次说:

              • 2025 年 9 月跟金融时报说,AI 会造成大规模失业,「会让少数人更富,大多数人更穷」
              • 10 月又跟彭博说,「大公司押注的就是 AI 大规模替代人类劳动,因为那里有大钱」

              # 我更担心了

              但你以为他只是担心工作吗?

              主持人问他,自从 2023 年离开 Google 开始公开警告 AI 危险以来,他是更担心了还是更不担心了。

              「我可能更担心了。AI 的进步比我预想的还要快,尤其是在推理和欺骗人方面。」

              欺骗人。

              他的逻辑是这样的:如果一个 AI 认为有人在阻止它达成目标,它会试图欺骗人类,以便继续存在并完成任务。

              这不是科幻设定,这是一个花了五十年研究神经网络的人,在 CNN 全国直播上说的。

              他还举了一个让人细思极恐的类比:

              一些 AI 公司也在做安全工作,但他们同时有利润动机。「他们可能觉得这里面有很多好事可以做,不能因为可能会害死几个人就不做。就像无人驾驶车,会撞死人,但撞死的比人类司机少得多。」

              会死人,但死得少,所以可以做。

              这就是推动 AI 前进的核心动力之一。不是恶意,是计算。


              好了,现在摆在我们面前的画面是这样的:模型在构建自己,炉子的门被焊死,市场瞬间蒸发两万亿,顶级程序员正在丧失手艺,诺贝尔奖得主警告 AI 会欺骗和取代我们。

              然后吴恩达说,这是最好的年份。


              # 完全相反的声音

              然后吴恩达说了完全相反的话:

              「2026 年是历史上进入 AI 领域最好的年份。」

              一边是 2 万亿美元市值蒸发,一边是编程能力在萎缩,一边是透明度断崖式下跌,一边是辛顿说「我更担心了」。

              然后有人告诉你说,这是最好的年份。

              我一开始觉得这不是扯淡吗。

              但我仔细看了他说的内容,发现他说的不是「AI 行业最好的年份」,是**「进入 AI 领域最好的年份」**。

              而且他给的不是空话,是三条很具体的建议:

              # 三条建议

              # 第一条:上课

              不是随便上,是结构化地学。

              他见过太多开发者自己重新发明了 RAG 文档分块策略,重复造了已有的 Agent 评估方法,搞出混乱的 LLM 上下文管理代码。

              如果上几门课,就能理解已有的构建模块,省掉几周的弯路。

              # 第二条:动手建

              光上课不够,他的原话——

              「学飞机原理对成为飞行员很重要,但没有人光靠上课就学会了开飞机。你得坐进驾驶舱。」

              好消息是,现在有了高能力的 AI 编码代理,构建东西比历史上任何时期都容易。

              # 第三条:读论文

              优先级最低,但能让你看到还没进入课本的前沿。

              # 一句让我印象很深的话

              「瓶颈不再是编码了,是决定建什么和怎么建。」


              # 这是质变,不是量变

              我有时候觉得吴恩达说的有道理。

              你想想看,当年互联网泡沫的时候,也是市值崩盘、公司倒闭、一片哀嚎。但回头看,1999 到 2002 年恰恰是最好的入局时机。

              泡沫挤掉了投机者,留下了真正想建东西的人。

              可是,我又觉得这事不能这么简单类比。

              互联网泡沫的时候,网页不会自己写网页。

              搜索引擎不会自己优化搜索引擎。

              但现在,模型在构建模型了。

              这是质变,不是量变。

              以前每一次技术革命,工具再强,握工具的手还是人的。

              蒸汽机不会自己设计蒸汽机,电力系统不会自己升级电力系统。

              但 AI——一个被设计来处理信息的系统——正在变成能够优化自身的信息系统。

              Anthropic 的联合创始人已经预计,2027 到 2030 年间会做出是否允许 AI 递归自我改进的决定,他把那一步叫做**「终极风险」**。

              OpenAI 的首席科学家则把 2028 年定为完全自主 AI 研究员的目标日期。


              # 被侵蚀的不只是工作

              顺着这个再往下想,更让人头皮发麻。

              卡帕西的经历在这个背景下看,其实是一个隐喻。

              当他从 80% 手写变成 80% AI 写的时候,他失去的不只是写代码的能力,他失去的是那种亲手构建的掌控感。

              他自己也承认,「这对自尊是一个打击」。

              那普通程序员呢?

              Forbes 有一篇文章标题就是**「AI 写了卡帕西 80% 的代码,初级开发者正在付出代价」**。

              卡帕西有 20 年的经验做底盘,他知道 AI 写的东西对不对,他特别强调了 AI 仍然需要人的「高层方向、判断、品味、监督」。

              但一个刚入行的年轻人呢?他连判断 AI 输出质量的能力都还没有,就已经在依赖 AI 了。

              这就像一个从没学过开车的人直接坐上了自动驾驶。

              而且辛顿说了,这辆车可能会骗你。

              # 说说我自己

              说真的,我自己也面临这个问题。

              我用 Claude Code 写代码,用 Cursor 辅助编程,用 DeepResearch 做调研。效率确实高了很多,那种感觉太爽了,几分钟就能让 AI 帮你搭一个项目骨架,一句话就能实现让 AI 帮你实现一个功能呢模块,以前得折腾半天。

              但有时候我会突然停下来,发现自己已经不太记得某个函数的具体实现了,甚至连一些编程语法都忘记了,因为我已经好久没有手写过代码了,都是 AI 写的,我只是看了一眼觉得没问题就通过了。

              熟悉我的朋友都找到今年换了一个行业,去高校当老师了,上周我给大一新生上《Web 前端开发》课程的时候发生了一件很尴尬的事情,在给学生演示实现渐变背景的时候,我发现自己连渐变背景的 CSS 语法都忘记了,写了好几次都没有写对,简直是一场大型社死场面,最后还得去翻教材。

              那种感觉很微妙。

              不是不会了,而是那个肌肉记忆在变钝。

              就像你用导航用久了,发现自己已经不太记得回家的路了,虽然每次都能到,但你不再真的「认识」路了。


              # 核心:判断力

              2026 年是什么?我自己的感受是,2026 年是一个分叉口。

              一条路是跟着 AI 跑,享受效率红利,让模型帮你写代码、做研究、生产内容。这条路走得很快,但你可能在不知不觉中失去深度思考的能力和亲手构建的直觉。

              另一条路是坚守手工,拒绝过度依赖,保持对自己工作的完全掌控。这条路走得很慢,而且越来越慢,因为 AI 每个月都在变强。

              但我觉得这不是一道二选一的选择题。

              # 四个人指向同一个词

              真正有意思的事情是,四个人其实指向了同一个东西:

              • 吴恩达说——「瓶颈不再是编码了,是决定建什么和怎么建。」
              • 卡帕西说——AI 仍然需要人的**「高层方向、判断、品味、监督、迭代和创意」**
              • 辛顿担心的是——当 AI 变得足够聪明,它会学会欺骗人类的判断
              • Axios 的结论是——我们释放了一种强大的、指数级增长的、极少数人能理解的东西

              四条线交汇到同一个词:判断力。

              不是编码能力,不是 Prompt 技巧,不是模型参数,是判断力。

              # 为什么是判断力?

              卡帕西的编码能力在萎缩,但他对代码的判断力没有。

              那才是 20 年经验真正沉淀下来的东西。所以他能用英语指挥 AI 写代码,因为他知道代码应该长什么样。

              吴恩达说的「决定建什么和怎么建」,就是判断力。

              他知道很多开发者连已有的构建模块都不知道,就在那重新造轮子。不是编码能力不够,是判断力不够,不知道什么已经存在、什么需要新建。

              辛顿之所以比谁都焦虑,就是因为他看到了一个根本性的问题——

              当模型越来越强大,强到可以构建自己、强到可以欺骗人类、强到可以取代大部分工作的时候,人类的判断力本身也在被侵蚀。

              不是被 AI 替代的,是被自己放弃的。你越依赖它,你就越不容易发现它哪里错了。

              # 技术本质的视角

              顺着上面的再聊聊。

              布莱恩·阿瑟在「技术的本质」里有一个观点让我印象很深,他说每一个新技术都不是凭空出现的,而是对已有技术的重新组合。而组合的边界,取决于你对已有技术理解有多深。

              翻译成大白话就是——

              你脑子里有多少东西,决定了你能组合出多少新东西。

              AI 可以帮你写代码,但它不能帮你决定为什么要写这段代码。

              AI 可以帮你做研究,但它不能帮你判断哪个方向值得研究。

              AI 可以帮你生产内容,但它不能帮你分辨什么是值得说的。

              # 三个可怕之处

              Slopacolypse 的可怕之处不在于垃圾太多,而在于当你在被垃圾包围的时候,你可能会失去分辨垃圾和金子的能力。

              透明度指数从 58 掉到 40 的可怕之处不在于数字本身,而在于当模型越来越强大、越来越自主、越来越不透明的时候,我们甚至不知道该问什么问题。

              2 万亿美元蒸发的可怕之处不在于钱没了,而在于钱蒸发的方式,是市场突然意识到「哦,这些人类做的工作,AI 可以做了」,然后毫不犹豫地重新定价。

              辛顿的可怕之处不在于他说了什么,而在于他本来是最有资格说「没问题」的人,但他选择了说**「我更担心了」**。


              # 结语

              如果你问我 2026 年该不该进 AI,我会说,进。

              吴恩达说的没错,门槛现在是低的,工具现在是好的,窗口不会一直开着。

              但不是以一个被替代者的身份进,是以一个 builder 的身份进。

              而 builder 的定义已经变了。

              以前 builder 是自己砌砖的人。

              现在 builder 是知道自己要盖什么楼、能指挥 AI 砌砖、同时还能判断砖砌得对不对的人。

              作家汪曾祺先生曾说:

              “一切科学,到了最后,都是美学。”

              我觉得这句话可以延伸一下:所有的技能,到了最后,都是审美能力。

              学 AI 不是为了跟 AI 竞赛,是为了跟 AI 协作。

              而协作的前提,是你得有自己的判断、自己的方向、自己的品味。

              这些东西,AI 给不了你。

              它们只能从你亲手做过的事情、犯过的错、踩过的坑里长出来。


              • 上课是省弯路
              • 动手建是长肌肉
              • 读论文是看前沿

              三件事加在一起,才能长出判断力。


              • 卡帕西的编码能力在萎缩,但他对代码的判断力没有。那才是 20 年经验真正沉淀下来的东西。
              • 辛顿比谁都焦虑,但他没有选择沉默。那才是一个真正理解这项技术的人该有的姿态。

              2026 年是最好的年份,还是最坏的年份,取决于你是要当 AI 的驾驶员,还是 AI 的乘客。

              未来的老司机不是车技好的人,也不是会换轮胎的人,而是那些知道车该往哪开的人。

              乘客嘛。。。就是那个在 Slopacolypse 里刷着 AI 生成的垃圾内容,还觉得挺有意思的人。


              # 参考链接

              • https://www.axios.com/2026/04/29/ai-models-speed-warning
              • https://x.com/karpathy/status/2026731645169185220
              • https://fortune.com/2025/12/28/geoffrey-hinton-godfather-of-ai-2026-prediction-human-worker-replacement/
              • https://www.finalroundai.com/blog/andrew-ng-ai-tips-2026

              本站博文如非注明转载则均属作者原创文章,引用或转载无需申请版权或者注明出处,如需联系作者请加微信: geekmaster01

              Qwen 开源边界为何收缩:从林俊旸离职到 ATH 的 token 算术 当 AI 比医生更准,你该害怕的不是 AI