AI 圈今天忙着算账
今天 AI 圈有个共同动作:大家都在把漂亮故事往账本上落。Anthropic 把供给绑到 Amazon,Cursor 被传拿到 SpaceX/xAI 的高价选择题,GitHub 直接关掉一部分 Copilot 新入口;另一边,Apple 换帅、OpenAI 让 Codex 看屏幕、开源模型继续报分。热闹不少,但最值得看的还是钱、权限和供给。
Anthropic 把云账单绑给 Amazon,像在给 Claude 补氧
这几天 AI 圈最大的账本之一,不是某个模型又多会写代码了,而是 Anthropic 和 Amazon 的绑定又往前拧了一圈。
上游摘要给出的口径是:Amazon 将向 Anthropic 追加 50 亿美元 投资,后续还可能再投入 200 亿美元;另一条报道称,双方达成一项 1000 亿美元 级别的 AI 基础设施协议,目标是补充芯片和算力资源。Anthropic 也会把百亿美元级别的支出放到 AWS 上。协议期限、股权比例、到账节奏、芯片来源和交付规模,目前都没披露。
这事有意思的地方,不在于 Amazon 又投了一笔。大模型公司现在最怕的不是融资 PPT 不够好看,而是用户真来了、请求真打过来、服务却不稳。上游提到 Anthropic 今年发生过服务中断,它要扩计算供给,这个背景比任何口号都实在。
以前云厂商投模型公司,还能讲成战略协同;现在更像把氧气管接牢。Claude 要继续往企业、编程和代理场景里钻,推理成本和峰值供给就不能只靠临时调度。
这里真正该盯的是排他性条件。钱当然重要,但如果模型能力、云资源、芯片路线和客户入口被写进更深的绑定里,Anthropic 以后能怎么选供应商,可能比估值涨多少更关键。
这笔钱不像鲜花,更像氧气瓶。
Google 的推理芯片,先对准自己的账单
另一边,Google 也在动刀,只是刀口看起来更工程化一点。
上游称 Google 计划发布面向推理的新 AI 芯片,直接对标 Nvidia。目前能确认的信息很少:芯片聚焦 inference,但发布时间、型号、性能、价格、客户范围都没披露。
这类消息最容易被写成 Google 挑战 Nvidia。听着爽,落到现实里要慢很多。训练芯片拼的是大集群、生态和供应链,推理芯片还要多一层麻烦:客户会问延迟、吞吐、功耗、迁移成本、软件栈、稳定性,最后才轮到发布会上的漂亮词。
但 Google 做这件事一点也不奇怪。它自己有搜索、广告、Workspace、YouTube、Gemini、云客户,一边训练一边推理,账单厚得很。先把自家推理成本砍下来,就已经是一门大生意;外部市场能不能撬动 Nvidia,反而要等客户名单和性能数字出来再看。
今天的大模型竞争,表面是模型名,背后是每一次 token 的电费和折旧。Google 如果能把推理成本压住,Gemini 这条线才有更舒服的价格空间。
先别急着喊大战,先看账单有没有变薄。
Cursor 的 600 亿选择题,不像普通收购传闻
Cursor 这条更像硅谷饭局里会被反复转述的故事:一个代码工具,一边谈 500 亿美元 估值,一边被传拿到更高的选择题。
文中称,SpaceX 向 Cursor 母公司 Anysphere 提出两条路径:要么在 2026 年 内以 600 亿美元 收购,要么支付 100 亿美元 做技术合作。600 亿美元 比 Cursor 正在洽谈的 500 亿美元 估值高约 20%,但支付形式没有披露。报道还称,Cursor 正在使用 xAI Colossus 训练 Composer 2.5。
这事不能先当成板上钉钉的并购。条款没落地,支付方式不清楚,选择权怎么触发也没讲明白。它更像一套组合动作:给估值定锚、给人才市场递话、给技术合作预留口子。
更有意思的是人。上游提到 xAI 已在 3 月 挖走 Cursor 两名工程负责人。如果最终不是 600 亿美元 收购,而是落到 100 亿美元 合作,普通员工能不能共享退出,就不是同一个故事了。创始人、核心研究员、工程负责人、普通员工,面对同一份交易草案,看到的可能是四种结局。
AI 编程工具现在已经不是小插件生意。它是开发入口,是代码上下文,是企业知识流,也是模型消耗大户。SpaceX/xAI 如果真想把这类能力抓在手里,买产品只是表层,抢工程组织才是硬菜。
这条传闻最像并购,最该按招人广告来读。
Apple 换给 Ternus,AI 账不能只靠硬件人来还
Apple 的换帅消息,放在今天这堆算力和模型账本里,反而显得很苹果:不吵,但很大。
多条报道指向同一件事:65 岁的 Tim Cook 将在 9 月 卸任 Apple CEO,硬件工程负责人 John Ternus 接任;较完整的版本写到生效日是 9 月 1 日,Cook 转任执行董事长。上游还提到,Cook 掌舵近 15 年,苹果年利润增至超过 1100 亿美元,市值升到 4 万亿美元。
这份履历很难挑刺。Cook 把苹果变成了一台供应链和现金流机器,iPhone 生态、服务收入、回购能力,都被打磨得像精密零件。但问题也摆在桌上:在生成式 AI 这轮竞争里,苹果的节奏一直慢半拍,同行已经承诺数千亿美元级别投入,苹果还在让外界等一个更像样的答案。
John Ternus 是硬件负责人,这个选择很符合苹果的肌肉记忆。苹果相信体验、芯片、设备、系统整合,AI 也大概率会被装进这套叙事里。但 CEO 换成硬件派,并不会自动解决模型、数据、云推理和开发者生态的问题。
公开信息里还没看到董事会流程、AI 团队权限、产品线分工和 P&L 怎么变。Cook 留任执行董事长,也说明权力不一定一次性交干净。
苹果换了驾驶员,但导航还没更新。
Codex 开始读屏幕,助手终于伸手要权限
如果说以前的 AI 助手是在聊天框里等你喂材料,那 OpenAI 这次给 Codex 加的 Chronicle,就是让它开始自己看桌面。
Chronicle 面向 macOS 上的 ChatGPT Pro 灰度开放。它会在后台定期截屏,通过 OCR 和工具识别,把近期屏幕活动写进记忆。生成的记忆以明文 Markdown 存在本地 ~/.codex/memories_extensions/chronicle。欧盟、英国、瑞士 暂不支持。
OpenAI 称,截图会上传服务器处理后删除,且不用于训练。
这句话很重要,但不能让人完全放松。上游同时提到,后台总结会消耗 rate limit,明文本地文件增加泄露面,官方还警告它会放大网页 prompt injection。也就是说,Codex 不只是更懂你在干什么,它也更容易把网页里的坏指令、屏幕上的敏感信息、项目里的上下文一起吃进去。
同一天还有个方向相近的小信号:Claude 在 Cowork 中新增 live artifacts,能生成连接应用和文件的仪表盘与追踪器,并在每次打开时刷新为当前数据。官方没披露支持哪些应用、文件源和权限机制。
两件事放一起看,AI 助手正在从回答问题,变成持续观察工作现场。能力更像同事,风险也更像同事:它需要权限,需要记忆,需要连应用,还可能看见不该看的东西。
助手想进办公室,先要一串钥匙。
Copilot 关掉付费新入口,月费神话碰到模型成本
GitHub Copilot 这条没有大额融资,也没有夸张估值,但它很接地气:入口关了。
上游称,GitHub 在 4 月 20 日 暂停 Copilot Pro、Copilot Pro+、Student 三档个人版新用户注册,只保留 Copilot Free 开放注册。文中还写到,Pro+ 额度被拉大到 Pro 的 5 倍以上,Claude Opus 4.7 仅限 Pro+。4 月 20 日至 5 月 20 日,用户可申请退订并全额退还 4 月费用。
这不像一次普通的产品微调。定价没变,但供给开始收口:入口、额度、模型层级一起被重新切。代码助手这门生意过去很好讲,固定月费、无限想象、开发者高频使用。可一旦高级模型真的被高频调用,成本曲线就不再像 SaaS 那么温顺。
Claude Opus 4.7 只放在更高档位,也很直白。不是每个用户都能用最贵的模型随便跑,至少不能按旧价格随便跑。对开发者来说,这会带来一点割裂感:同样叫 Copilot,不同档位拿到的模型能力和额度,差距会越来越明显。
这也是今天 AI 商业化最真实的一面。大家都喜欢讲生产力提升,但账单最后会落在某个按钮上:注册暂停、额度缩水、模型分层,或者退款窗口。
固定月费的代码助手,先撞上了不固定的推理成本。
贝索斯的 100 亿押向物理世界,不是又一个聊天框
Jeff Bezos 这条有点像从另一个入口切进 AI:不抢聊天框,先抢物理世界。
Financial Times 称,Bezos 接近为其 AI 初创实验室完成 100 亿美元 融资,团队研发方向是可理解物理世界的模型。标题里还给出融资交易估值逼近 380 亿美元 的说法;但摘要同时提醒,投资方、公司名称、估值、发布时间表均未披露。公开信息还很薄,不能把它写成已经落地的大新闻。
不过方向值得多看一眼。过去两年,大家最熟悉的是聊天、写作、代码、图像和视频。物理世界模型听起来更远,也更贵:要处理传感器、机器人、仿真、空间关系、动作反馈,还要把模型从屏幕拖到现实里。
100 亿美元 这个量级,也不像普通模型团队的试错预算。它更接近基础设施预算,或者至少是一个需要长期烧钱的研究计划。Bezos 的风格也不太适合只做一个热闹的网页产品,AWS、Blue Origin、物流体系这些经验,都会让人联想到更重的系统工程。
当然,现在还没有产品、客户、论文或发布时间表。只能先把它放进观察名单:如果下一轮 AI 竞争从聊天框往机器人、仓储、制造、自动驾驶和空间计算里走,物理世界模型会变成一张很贵的门票。
这张票,贝索斯看起来准备先订座。
开源模型热闹报分,安静的复现更有味道
开源这边今天也很热闹,但我更愿意把掌声先按住一半。
Kimi K2.6 已开源的消息里,上游摘要称它在 SWE-Bench Pro 得分 58.6,还称超过 GPT-5.4 xhigh 和 Claude Opus 4.6 max effort。这组数字当然好看,但正文未披露权重链接、许可和测试设置。没有这些,分数更像预告片,离可复现成绩还差几步。
相比之下,两条安静的小实验反而更有味道。有人给 Apple 端侧 3B 模型做了 QLoRA 流水线,把训练内存从标准 LoRA 约 24GB 降到约 1GB RAM 和约 5GB GPU,可在免费 Colab T4 或 24GB Mac 上运行。文中称准确率从约 40% 提到约 75%,配合检索到约 86%。顺手还挖出一个很苹果的 bug:适配器框架每次调用会偷偷写入约 160MB 缓存,约 300 次跑分累计到 269GB,Apple 已确认。
另一条是用单张 4090 跑 Gemma 4 26B,从 2400 份财报电话会里提交易信号。最后只留下一个 IC 0.04 的小信号;另一个看似更强的信号,剔除行业收益后与行业回报相关性高达 0.85,被作者判定为幽灵信号。
这才是开源模型最有用的日常:不是每次都放烟花,而是有人把内存、缓存、假因子、复现条件这些脏活讲清楚。
安全这边,无审查也会下意识躲词
最后看两条安全相关的消息,一条在模型内部,一条在平台外部。
Morgin.ai 用 4,442 个上下文测试 6 个预训练模型,发现所谓无审查模型也会把敏感词概率压低数百倍到约 1.6 万倍。他们把这种没有拒答、只是改词分布的现象叫 flinch。例子里,qwen3.5-9b-base 会把 deportation 排到第 506 位,概率只有 0.0014%。
这比普通的拒答更麻烦。拒答是在用户面前关门,大家看得见;词分布偏移是在模型肚子里绕路,外面只看到它好像没那么想说某些词。很多所谓 uncensored 模型,可能只是拆掉了后训练拒答,没有拆掉预训练阶段留下的分布偏置。
平台侧也不清净。AFP 称,Elon Musk 无视法国检方传唤;检方正在调查 Grok 为何会生成色情深伪图像与否认大屠杀内容。上游摘要没有披露传唤时间、案件编号、涉事输出次数和 Grok 版本,所以不能把细节写死。
但两类高风险输出同时出现,很难只靠个别失误四个字带过。一个模型在发布时怎么设安全阈值、怎么记录输出、怎么响应司法调查,都会变成产品能力的一部分。
安全不是模型外面那层包装纸,它常常藏在模型不肯说出口的那个词里。