FEATUREDTechCrunch AI· rssEN22:43 · 02·05
Amazon 和 Google 领跑 AI 资本开支竞赛,但奖品是什么?
Amazon 计划在 2026 年投入 2000 亿美元资本开支,Google 计划投入 1750 亿至 1850 亿美元。RSS 摘要只给出年度 capex 金额,未拆分 AI 相关占比,也未披露“奖品”指向的收入、利润或产能回报。别被标题骗了,当前可确认的是两家正把云和 AI 基础设施投入推到接近 4000 亿美元量级。
#Inference-opt#Tools#Amazon#Google
精选理由
这条新闻的价值在两组大数:Amazon 2026 年 capex 2000 亿美元,Google 1750 亿至 1850 亿美元,足以说明云与 AI 基础设施军备赛还在加速。短板也很明显:当前信息没有拆出 AI 占比、利用率和回收路径,所以它是重要宏观信号,不到 featured 线。
编辑点评
Amazon 计划砸 2000 亿美元,Google 跟到 1750 至 1850 亿。标题在问奖品,正文却没给回报口径;这更像防守性军备竞赛,不像一场已算清账的投资。
深度解读
Amazon 计划在 2026 年投入 2000 亿美元资本开支,Google 计划投入 1750 亿到 1850 亿美元。能确认的事实就这些。标题抛出“奖品”这个词,正文却没披露 AI 占比、算力落点、折旧周期、云收入增量,也没给利润率改善口径,我不太买账这种提问方式。
我先说判断:这笔钱首先是在买“别掉队”的资格,不是在买一张清晰的盈利凭证。云厂商现在最怕的,不是谁先发论文,而是谁先拿不到 GPU、HBM、电力和园区审批。资本开支一旦拉到接近 4000 亿美元合计规模,讨论重点就不该停在“大手笔”,而该看每 10 亿美元究竟换来多少可售算力、多少推理收入、多少对外云订单。这里正文完全没给。
文章外的上下文其实很关键。2024 到 2025 年,微软、Meta、Amazon、Google 都把 capex 连续抬高,市场一度接受了“先建再说”的逻辑,因为生成式 AI 需求确实把 GPU 集群变成稀缺资产。可到 2026 年,这套叙事已经没那么轻松了。训练开支还在涨,推理开支开始吞利润,客户又在压 API 价格。OpenAI、Anthropic、Google 自己都在往更便宜的推理档位挤,单位 token 收入不是单向上行。你花出去的是固定资产,收回来的却是被价格战挤压的服务收入,这里面有天然张力。
我还有个疑虑:TechCrunch 这个标题把 Amazon 和 Google 写成“赢 capex 竞赛”,好像花得多就是领先。这个说法很虚。capex 不是奖杯,利用率才是。AWS 和 Google Cloud 最后比的,不是采购额,而是高端 GPU 的上架速度、企业客户签单速度、自研芯片替代率、还有数据中心能不能按期通电。我记得 Google 这两年一直在推 TPU 路线,Amazon 也在押 Trainium 和 Inferentia;如果自研芯片占比上不去,巨额 capex 很容易继续回流到 Nvidia 产业链,而不是沉淀成自己更厚的毛利。
所以我对这条的态度很直接:目前只有标题信息,结论别下太早。要谈“奖品”,至少得补四个数:AI 相关 capex 占比、新增可用算力、对应云与模型收入、折旧与毛利率变化。没有这些,这篇更像把支出数字包装成赛马叙事。
HKR 分解
hook ✓knowledge ✓resonance ✓