飞行的蜗牛 


你有没有想过一个细思极恐的问题:你去急诊,分诊台后面坐着的,可能不是人。
这不是科幻。这是哈佛医学院上周发表在《Science》上的一项研究——OpenAI 的 O1 推理模型,在急诊分诊诊断中的准确率达到了 67%,而跟它对阵的两位主治医师,只有 50% 和 55%。
67% vs 50%。
在生死攸关的急诊分诊环节,AI 赢了。


先说结论:Qwen 不是“突然闭源”,而是在做选择性收缩。阿里保留基座模型开源来维持生态漏斗,同时把最有商业价值的前沿多模态能力锁进 API 付费墙。这背后不是理念之争,而是现金流与收入结构驱动的商业算术。
事情是这样的。

事情是这样的。
上周五(2026 年 4 月 24 日),DeepSeek 发布了 V4。
两个版本,V4-Pro-Max 1.6 万亿参数,V4 Flash 284 亿参数,都是 MoE 架构,都支持 100 万 token 上下文窗口。V4 Flash 的定价是每百万输入 token 0.14 美元,几乎是同级别模型里最便宜的。
然后华为紧接着宣布,全系列 Ascend 芯片对 V4 提供完整支持。寒武纪也第一时间跟进了兼容性适配。
如果你关注 AI 行业的话,应该能感觉到,这一周的信息密度有多高。

4 月 16 号,Anthropic 发了个 Claude Opus 4.7。4 月 23 号,OpenAI 紧跟着发了个 GPT-5.5。4 月 24 号,DeepSeek 又蹦出来个 V4。
9 天之内,三家先后出牌,全部百万 token 上下文,全部主打 Agentic 能力。
我看完了这三场发布会的感觉就是,之前那种「谁是最强模型」的讨论,好像突然变得没意义了。
不是因为谁碾压了谁。
恰恰相反,是因为谁也没碾压谁。
三足鼎立了。

最近新一代个人 AI 助理 Hermes Agent 风头正盛,GitHub 上每天的 star 增长已经悄悄超过了 OpenClaw,大有取而代之的势头。不少网友跑来问我:这个新 AI 代理到底好不好用?网上都在说“爱马仕”(Hermes)比“小龙虾”(OpenClaw)好用,是不是真的?建不建议切换?
于是,我分别用我的小龙虾和爱马仕做了一轮深度调研——把两者的架构、代码、社区声音扒了个底朝天。同时我自己也用了差不多三个月的小龙虾、又深度使用了 2 周的 Hermes,踩了一堆坑,也攒了一堆体感。我想写一篇 既有数据、又有体感的文章,帮你理清楚这两个东西到底是个啥,各自的使用场景是什么,以及——到底选哪个。
缩放定律,名词,一场赌注越来越大、赢面越来越小的牌局,庄家告诉你只要继续加注就一定能翻盘。
前两天我看到一条消息,Ilya Sutskever——对,就是那个 OpenAI 的联合创始人,GPT 系列的幕后推手——公开说,缩放定律的时代结束了。
你可能不知道这个名字。没关系。 你只需要知道一件事:过去五年,全球科技巨头在 AI 上砸的几千亿美元,底层逻辑全建立在一个假设上——模型越大、数据越多、算力越猛,AI 就越聪明。 这个假设,有个学术名字,叫缩放定律。
Ilya 就是那个把缩放定律从论文搬进工程的人。 现在他说,这条路走到头了。
今年春节回家,和几位从事教育行业亲戚朋友聊天。大家都知道我这两年在做 AI 相关的工作,于是话题很自然地转到一个问题:
AI 越来越强,孩子到底该学什么?
有人说,AI 会写作文、会解题、会编程,将来很多工作都会被替代。 也有人担心,如果今天的教育方向选错了,十年后孩子会不会很被动。
这些问题并不情绪化,反而很理性。 本质上,它们都指向同一个核心议题:
当人工智能能力边界不断拓展,人类教育的目标应该是什么?
下面我会先借用计算器、搜索引擎、现代交通工具三次技术变革里已经发生过的事,回答「工具越来越强,人还要学什么」;再落到 AI 时代教育重心该往哪挪、哪些能力更值得刻意培养,以及为什么深度阅读与真实写作反而更关键。
