ax@ax-radar:~/daily/2026-04-20 $ cat newsletter/daily/2026-04-20.md
44 srcsignal 72%cycle 04:32
AX 的 AI 日报 · 2026-04-20算力账本

AI 圈今天忙着算账

今天 AI 圈有个共同动作:大家都在把漂亮故事往账本上落。Anthropic 把供给绑到 AmazonCursor 被传拿到 SpaceX/xAI 的高价选择题,GitHub 直接关掉一部分 Copilot 新入口;另一边,Apple 换帅、OpenAICodex 看屏幕、开源模型继续报分。热闹不少,但最值得看的还是钱、权限和供给。

Anthropic 把云账单绑给 Amazon,像在给 Claude 补氧

这几天 AI 圈最大的账本之一,不是某个模型又多会写代码了,而是 AnthropicAmazon 的绑定又往前拧了一圈。

上游摘要给出的口径是:Amazon 将向 Anthropic 追加 50 亿美元 投资,后续还可能再投入 200 亿美元;另一条报道称,双方达成一项 1000 亿美元 级别的 AI 基础设施协议,目标是补充芯片和算力资源。Anthropic 也会把百亿美元级别的支出放到 AWS 上。协议期限、股权比例、到账节奏、芯片来源和交付规模,目前都没披露。

这事有意思的地方,不在于 Amazon 又投了一笔。大模型公司现在最怕的不是融资 PPT 不够好看,而是用户真来了、请求真打过来、服务却不稳。上游提到 Anthropic 今年发生过服务中断,它要扩计算供给,这个背景比任何口号都实在。

以前云厂商投模型公司,还能讲成战略协同;现在更像把氧气管接牢。Claude 要继续往企业、编程和代理场景里钻,推理成本和峰值供给就不能只靠临时调度。

这里真正该盯的是排他性条件。钱当然重要,但如果模型能力、云资源、芯片路线和客户入口被写进更深的绑定里,Anthropic 以后能怎么选供应商,可能比估值涨多少更关键。

这笔钱不像鲜花,更像氧气瓶。

Google 的推理芯片,先对准自己的账单

另一边,Google 也在动刀,只是刀口看起来更工程化一点。

上游称 Google 计划发布面向推理的新 AI 芯片,直接对标 Nvidia。目前能确认的信息很少:芯片聚焦 inference,但发布时间、型号、性能、价格、客户范围都没披露。

这类消息最容易被写成 Google 挑战 Nvidia。听着爽,落到现实里要慢很多。训练芯片拼的是大集群、生态和供应链,推理芯片还要多一层麻烦:客户会问延迟、吞吐、功耗、迁移成本、软件栈、稳定性,最后才轮到发布会上的漂亮词。

Google 做这件事一点也不奇怪。它自己有搜索、广告、Workspace、YouTube、Gemini、云客户,一边训练一边推理,账单厚得很。先把自家推理成本砍下来,就已经是一门大生意;外部市场能不能撬动 Nvidia,反而要等客户名单和性能数字出来再看。

今天的大模型竞争,表面是模型名,背后是每一次 token 的电费和折旧。Google 如果能把推理成本压住,Gemini 这条线才有更舒服的价格空间。

先别急着喊大战,先看账单有没有变薄。

Cursor 的 600 亿选择题,不像普通收购传闻

Cursor 这条更像硅谷饭局里会被反复转述的故事:一个代码工具,一边谈 500 亿美元 估值,一边被传拿到更高的选择题。

文中称,SpaceXCursor 母公司 Anysphere 提出两条路径:要么在 2026 年 内以 600 亿美元 收购,要么支付 100 亿美元 做技术合作。600 亿美元 比 Cursor 正在洽谈的 500 亿美元 估值高约 20%,但支付形式没有披露。报道还称,Cursor 正在使用 xAI Colossus 训练 Composer 2.5

这事不能先当成板上钉钉的并购。条款没落地,支付方式不清楚,选择权怎么触发也没讲明白。它更像一套组合动作:给估值定锚、给人才市场递话、给技术合作预留口子。

更有意思的是人。上游提到 xAI 已在 3 月 挖走 Cursor 两名工程负责人。如果最终不是 600 亿美元 收购,而是落到 100 亿美元 合作,普通员工能不能共享退出,就不是同一个故事了。创始人、核心研究员、工程负责人、普通员工,面对同一份交易草案,看到的可能是四种结局。

AI 编程工具现在已经不是小插件生意。它是开发入口,是代码上下文,是企业知识流,也是模型消耗大户。SpaceX/xAI 如果真想把这类能力抓在手里,买产品只是表层,抢工程组织才是硬菜。

这条传闻最像并购,最该按招人广告来读。

Apple 换给 Ternus,AI 账不能只靠硬件人来还

Apple 的换帅消息,放在今天这堆算力和模型账本里,反而显得很苹果:不吵,但很大。

多条报道指向同一件事:65 岁Tim Cook 将在 9 月 卸任 Apple CEO,硬件工程负责人 John Ternus 接任;较完整的版本写到生效日是 9 月 1 日Cook 转任执行董事长。上游还提到,Cook 掌舵近 15 年,苹果年利润增至超过 1100 亿美元,市值升到 4 万亿美元

这份履历很难挑刺。Cook 把苹果变成了一台供应链和现金流机器,iPhone 生态、服务收入、回购能力,都被打磨得像精密零件。但问题也摆在桌上:在生成式 AI 这轮竞争里,苹果的节奏一直慢半拍,同行已经承诺数千亿美元级别投入,苹果还在让外界等一个更像样的答案。

John Ternus 是硬件负责人,这个选择很符合苹果的肌肉记忆。苹果相信体验、芯片、设备、系统整合,AI 也大概率会被装进这套叙事里。但 CEO 换成硬件派,并不会自动解决模型、数据、云推理和开发者生态的问题。

公开信息里还没看到董事会流程、AI 团队权限、产品线分工和 P&L 怎么变。Cook 留任执行董事长,也说明权力不一定一次性交干净。

苹果换了驾驶员,但导航还没更新。

Codex 开始读屏幕,助手终于伸手要权限

如果说以前的 AI 助手是在聊天框里等你喂材料,那 OpenAI 这次给 Codex 加的 Chronicle,就是让它开始自己看桌面。

Chronicle 面向 macOS 上的 ChatGPT Pro 灰度开放。它会在后台定期截屏,通过 OCR 和工具识别,把近期屏幕活动写进记忆。生成的记忆以明文 Markdown 存在本地 ~/.codex/memories_extensions/chronicle欧盟、英国、瑞士 暂不支持。

OpenAI 称,截图会上传服务器处理后删除,且不用于训练。

这句话很重要,但不能让人完全放松。上游同时提到,后台总结会消耗 rate limit,明文本地文件增加泄露面,官方还警告它会放大网页 prompt injection。也就是说,Codex 不只是更懂你在干什么,它也更容易把网页里的坏指令、屏幕上的敏感信息、项目里的上下文一起吃进去。

同一天还有个方向相近的小信号:ClaudeCowork 中新增 live artifacts,能生成连接应用和文件的仪表盘与追踪器,并在每次打开时刷新为当前数据。官方没披露支持哪些应用、文件源和权限机制。

两件事放一起看,AI 助手正在从回答问题,变成持续观察工作现场。能力更像同事,风险也更像同事:它需要权限,需要记忆,需要连应用,还可能看见不该看的东西。

助手想进办公室,先要一串钥匙。

Copilot 关掉付费新入口,月费神话碰到模型成本

GitHub Copilot 这条没有大额融资,也没有夸张估值,但它很接地气:入口关了。

上游称,GitHub4 月 20 日 暂停 Copilot ProCopilot Pro+Student 三档个人版新用户注册,只保留 Copilot Free 开放注册。文中还写到,Pro+ 额度被拉大到 Pro5 倍以上Claude Opus 4.7 仅限 Pro+4 月 20 日至 5 月 20 日,用户可申请退订并全额退还 4 月费用。

这不像一次普通的产品微调。定价没变,但供给开始收口:入口、额度、模型层级一起被重新切。代码助手这门生意过去很好讲,固定月费、无限想象、开发者高频使用。可一旦高级模型真的被高频调用,成本曲线就不再像 SaaS 那么温顺。

Claude Opus 4.7 只放在更高档位,也很直白。不是每个用户都能用最贵的模型随便跑,至少不能按旧价格随便跑。对开发者来说,这会带来一点割裂感:同样叫 Copilot,不同档位拿到的模型能力和额度,差距会越来越明显。

这也是今天 AI 商业化最真实的一面。大家都喜欢讲生产力提升,但账单最后会落在某个按钮上:注册暂停、额度缩水、模型分层,或者退款窗口。

固定月费的代码助手,先撞上了不固定的推理成本。

贝索斯的 100 亿押向物理世界,不是又一个聊天框

Jeff Bezos 这条有点像从另一个入口切进 AI:不抢聊天框,先抢物理世界。

Financial Times 称,Bezos 接近为其 AI 初创实验室完成 100 亿美元 融资,团队研发方向是可理解物理世界的模型。标题里还给出融资交易估值逼近 380 亿美元 的说法;但摘要同时提醒,投资方、公司名称、估值、发布时间表均未披露。公开信息还很薄,不能把它写成已经落地的大新闻。

不过方向值得多看一眼。过去两年,大家最熟悉的是聊天、写作、代码、图像和视频。物理世界模型听起来更远,也更贵:要处理传感器、机器人、仿真、空间关系、动作反馈,还要把模型从屏幕拖到现实里。

100 亿美元 这个量级,也不像普通模型团队的试错预算。它更接近基础设施预算,或者至少是一个需要长期烧钱的研究计划。Bezos 的风格也不太适合只做一个热闹的网页产品,AWS、Blue Origin、物流体系这些经验,都会让人联想到更重的系统工程。

当然,现在还没有产品、客户、论文或发布时间表。只能先把它放进观察名单:如果下一轮 AI 竞争从聊天框往机器人、仓储、制造、自动驾驶和空间计算里走,物理世界模型会变成一张很贵的门票。

这张票,贝索斯看起来准备先订座。

开源模型热闹报分,安静的复现更有味道

开源这边今天也很热闹,但我更愿意把掌声先按住一半。

Kimi K2.6 已开源的消息里,上游摘要称它在 SWE-Bench Pro 得分 58.6,还称超过 GPT-5.4 xhighClaude Opus 4.6 max effort。这组数字当然好看,但正文未披露权重链接、许可和测试设置。没有这些,分数更像预告片,离可复现成绩还差几步。

相比之下,两条安静的小实验反而更有味道。有人给 Apple 端侧 3B 模型做了 QLoRA 流水线,把训练内存从标准 LoRA 约 24GB 降到约 1GB RAM 和约 5GB GPU,可在免费 Colab T424GB Mac 上运行。文中称准确率从约 40% 提到约 75%,配合检索到约 86%。顺手还挖出一个很苹果的 bug:适配器框架每次调用会偷偷写入约 160MB 缓存,约 300 次跑分累计到 269GBApple 已确认。

另一条是用单张 4090Gemma 4 26B,从 2400 份财报电话会里提交易信号。最后只留下一个 IC 0.04 的小信号;另一个看似更强的信号,剔除行业收益后与行业回报相关性高达 0.85,被作者判定为幽灵信号。

这才是开源模型最有用的日常:不是每次都放烟花,而是有人把内存、缓存、假因子、复现条件这些脏活讲清楚。

安全这边,无审查也会下意识躲词

最后看两条安全相关的消息,一条在模型内部,一条在平台外部。

Morgin.ai4,442 个上下文测试 6 个预训练模型,发现所谓无审查模型也会把敏感词概率压低数百倍到约 1.6 万倍。他们把这种没有拒答、只是改词分布的现象叫 flinch。例子里,qwen3.5-9b-base 会把 deportation 排到第 506 位,概率只有 0.0014%

这比普通的拒答更麻烦。拒答是在用户面前关门,大家看得见;词分布偏移是在模型肚子里绕路,外面只看到它好像没那么想说某些词。很多所谓 uncensored 模型,可能只是拆掉了后训练拒答,没有拆掉预训练阶段留下的分布偏置。

平台侧也不清净。AFP 称,Elon Musk 无视法国检方传唤;检方正在调查 Grok 为何会生成色情深伪图像与否认大屠杀内容。上游摘要没有披露传唤时间、案件编号、涉事输出次数和 Grok 版本,所以不能把细节写死。

但两类高风险输出同时出现,很难只靠个别失误四个字带过。一个模型在发布时怎么设安全阈值、怎么记录输出、怎么响应司法调查,都会变成产品能力的一部分。

安全不是模型外面那层包装纸,它常常藏在模型不肯说出口的那个词里。

更多

频道

后台