飞行的蜗牛 
事情是这样的。
上周四,DeepSeek 发布了 V4。
两个版本,V4-Pro-Max 1.6 万亿参数,V4 Flash 284 亿参数,都是 MoE 架构,都支持 100 万 token 上下文窗口。V4 Flash 的定价是每百万输入 token 0.14 美元,几乎是同级别模型里最便宜的。
然后华为紧接着宣布,全系列 Ascend 芯片对 V4 提供完整支持。寒武纪也第一时间跟进了兼容性适配。
如果你关注 AI 行业的话,应该能感觉到,这一周的信息密度有多高。

4 月 16 号,Anthropic 发了个 Claude Opus 4.7。4 月 23 号,OpenAI 紧跟着发了个 GPT-5.5。4 月 24 号,DeepSeek 又蹦出来个 V4。
9 天之内,三家先后出牌,全部百万 token 上下文,全部主打 Agentic 能力。
我看完了这三场发布会的感觉就是,之前那种「谁是最强模型」的讨论,好像突然变得没意义了。
不是因为谁碾压了谁。
恰恰相反,是因为谁也没碾压谁。
三足鼎立了。

最近新一代个人 AI 助理 Hermes Agent 风头正盛,GitHub 上每天的 star 增长已经悄悄超过了 OpenClaw,大有取而代之的势头。不少网友跑来问我:这个新 AI 代理到底好不好用?网上都在说“爱马仕”(Hermes)比“小龙虾”(OpenClaw)好用,是不是真的?建不建议切换?
于是,我分别用我的小龙虾和爱马仕做了一轮深度调研——把两者的架构、代码、社区声音扒了个底朝天。同时我自己也用了差不多三个月的小龙虾、又深度使用了 2 周的 Hermes,踩了一堆坑,也攒了一堆体感。我想写一篇 既有数据、又有体感的文章,帮你理清楚这两个东西到底是个啥,各自的使用场景是什么,以及——到底选哪个。
缩放定律,名词,一场赌注越来越大、赢面越来越小的牌局,庄家告诉你只要继续加注就一定能翻盘。
前两天我看到一条消息,Ilya Sutskever——对,就是那个 OpenAI 的联合创始人,GPT 系列的幕后推手——公开说,缩放定律的时代结束了。
你可能不知道这个名字。没关系。 你只需要知道一件事:过去五年,全球科技巨头在 AI 上砸的几千亿美元,底层逻辑全建立在一个假设上——模型越大、数据越多、算力越猛,AI 就越聪明。 这个假设,有个学术名字,叫缩放定律。
Ilya 就是那个把缩放定律从论文搬进工程的人。 现在他说,这条路走到头了。
今年春节回家,和几位从事教育行业亲戚朋友聊天。大家都知道我这两年在做 AI 相关的工作,于是话题很自然地转到一个问题:
AI 越来越强,孩子到底该学什么?
有人说,AI 会写作文、会解题、会编程,将来很多工作都会被替代。 也有人担心,如果今天的教育方向选错了,十年后孩子会不会很被动。
这些问题并不情绪化,反而很理性。 本质上,它们都指向同一个核心议题:
当人工智能能力边界不断拓展,人类教育的目标应该是什么?
下面我会先借用计算器、搜索引擎、现代交通工具三次技术变革里已经发生过的事,回答「工具越来越强,人还要学什么」;再落到 AI 时代教育重心该往哪挪、哪些能力更值得刻意培养,以及为什么深度阅读与真实写作反而更关键。
要说 AI 圈内这两天讨论度最高的产品,当属 Monica 公司的 3 月 5 日发布的 Manus,一些自媒体甚至称它是继 DeepSeek 之后,又一个震惊全球的中国 AI 产品,还给它扣上了“国运级产品”的帽子。据说现在一个 Manus 的内测邀请码已经炒到了5万了。
作为一款新型通用 AI Agent,Manus 的爆火到底是因为它的技术创新?还是场景创新?又或者单纯媒体炒作或者Monica公司过度营销的结果?以及从 Manus 的爆火事件中我们能学到什么?本文我们就来讨论一下这些问题。
先声明,到现在为止我从没有用过 Manus,也没有 Manus 的注册邀请码。目前我对 Manus 的了解主要通过看官方的发布的视频和文档和网上的一些“Manus 会话回放”,以及我自己对于 AI Agent 技术的了解。
杨立昆
DeepSeek-R1 的横空出世,这不是一个简单的中国 AI 技术超过美国的问题,而是开源模型超越了专有模型,这是开源世界的胜利。
DeepSeek凭借其创新的技术和卓越的性能,迅速崭露头角,成为行业内备受瞩目的力量。DeepSeek的应用不仅在国内外各大社交媒体平台上取得了显著的用户增长,还在AI技术的多项评比中名列前茅,展现了其强大的市场竞争力。 DeepSeek R1模型引入了不依赖监督微调的强化学习技术,使得模型在微调后的性能大幅提升。例如,在数学能力方面,基础模型的得分为100分,而经过微调后,得分可达到450分。本文基于对DeepSeek-V3和R1论文的研究,解析 DeepSeek-R1 的训练过程以及其核心技术原理。
虽然我很早就开始使用 Stable Diffusion了,但基本是浅尝辄止:搭建好本地环境,画了一些图片图,然后看了下 API 接口,并接入到了 GeekAI 创作助手,然后。。。就没有然后了。我平常的工作也很少用到 AI 绘图,偶然要用的话一般也用 MidJourney 解决。
上周,为了满足工作需求,我尝试用ComfyUI创建AI换装流程,并设置了本地运行环境。然而,我发现ComfyUI比之前用过的Stable Diffusion WebUI复杂。后者操作简单,只需输入提示、选模型、调参数就能生成图片。而在ComfyUI中,除了选模型,还需加载Clip模型、VAE等,这些我以前只是听说过名字而已。
由于跳过很多基础的原理性东西,以至于现在在操作上遇到很多问题。于是打算花点时间把 Stable Diffusion 的基础知识重新学习了一遍。学完之后我的感受是,基础知识远远比技巧重要,不懂原理,你学习技巧会很吃力,即使你通过大量的练习掌握了一些 AI 绘画技巧,等换一个软件,你之前学的技巧可能就不适用了。 比如,如果两个 AI 绘图软件使用的 clip 模型不一样,那么它们所用到的提示词技巧可能 就会不一样。如果你掌握了底层原理和基础知识,那么你的技能迁移也会比别人快很多。
今日分享
在商业的世界里,价值和需求是一体两面的,你自己认为它有价值,不代表它有商业价值。
符合对方的需求,对方愿意为它付费,它才具有商业价值。
所以,做出有价值的东西和做出具有商业价值的东西,是两回事。
Docker相关的网络环境问题一直是困扰开发者的难题,尤其是近半年以来,拉取 Docker 官方镜像仓库的镜像都变得非常麻烦,运气好的话,超时十来次之后你也许能拉取下来,运气不好的话,你一晚上都下载不完一个镜像。
本文介绍如何通过设置代理的方式,解决 Docker 使用过程遇到的各种网络问题。
