ax@ax-radar:~/all $ grep -v 'tier=excluded' stream.log
44 srcsignal 72%cycle 04:32

全部 · 2026-03-10

9 items · updated 3m ago
RSS live
2026-03-10 · 星期二2026年3月10日
15:30
48d ago
NVIDIA 博客· rssEN15:30 · 03·10
NVIDIA 用 RTX PRO Server 虚拟化游戏开发
NVIDIA 在 GDC 展示 RTX PRO Server,把游戏开发、QA 和 AI 工作负载集中到数据中心共享 GPU 基础设施,核心硬件是 RTX PRO 6000 Blackwell Server Edition。正文披露该 GPU 配备 96GB 显存,结合 MIG 和 vGPU 后单卡最多支持 48 名并发用户。真正值得盯的是同一套 GPU 可在夜间跑训练与仿真,白天切回交互式开发,减少独立 AI 基础设施。
#Agent#Fine-tuning#Inference-opt#NVIDIA
精选理由
正文有96GB、MIG/vGPU、单卡48并发这些新信息,HKR-K成立。内容仍是NVIDIA自家基础设施方案宣传,受众偏游戏开发与IT采购,按hard-exclusion的厂商基础设施促销处理,分数压到39。
HKR 分解
hook knowledge resonance
打开信源
45
SCORE
H0·K1·R0
14:00
48d ago
MIT 科技评论· rssEN14:00 · 03·10
为 AI 智能体落地建立强数据基础设施
McKinsey 称,2025 年末近三分之二公司在试验 AI 智能体,但真正把智能体规模化的企业只有 10%。文中把主因指向数据基础:88% 企业已在至少一个业务环节使用 AI,高于 2024 年的 78%,但超过三分之二公司仍把数据孤岛列为采用 AI 的首要障碍。真正值得盯的是语义层与治理链路;正文主张 SaaS 不会被替代,智能体应基于具业务上下文、可被信任的数据协同现有系统。
#Agent#RAG#Tools#McKinsey
精选理由
这是一篇企业数据基础设施与智能体落地的观点文,HKR-K 来自 McKinsey 的采用与规模化数字,HKR-R 来自“试点多、规模化少”的共性痛点。HKR-H 偏弱,标题像常规方法论,提示信息也未披露可复现架构、成本或具名部署细节,所以只到 all。
编辑点评
McKinsey 给出 10% 智能体规模化率,这更像企业数据治理欠账暴露,不是模型突然失灵。
深度解读
McKinsey 把企业智能体规模化率写成 10%,我基本认同这个方向判断。现在卡住大多数公司的,确实越来越不是 Claude、GPT 还是 Gemini 选型,而是权限、口径、主数据、审计链路这套老问题。88% 企业已在至少一个环节用 AI,只有十分之一把智能体做大,这个落差本身就说明,demo 成功和进生产是两回事。 但我对这篇稿子的叙事有点保留。它把问题几乎完整归因到“数据基础设施”,这话只对了一半。企业智能体落不了地,通常有三道坎同时存在:一是数据语义层不统一,二是系统动作权限拿不到,三是流程责任没人签字。文章重点讲了第一道,第二道和第三道只擦到边。实际做过的人都知道,很多 agent 不是答不出来,而是不敢写回 ERP、CRM、工单系统。你给它再好的知识层,审批、回滚、审计没补齐,照样只能停在 copilots。 文中提到两组数还算有价值:三分之二企业把数据孤岛列为 AI 障碍,超过一半企业要处理 1000 个以上数据源。这跟我这两年看到的企业栈基本一致。真正难的不是“有没有 lakehouse”,而是 Salesforce、SAP、ServiceNow、Snowflake、SharePoint、邮件、日志系统里的同一个客户、同一笔订单、同一条库存状态,到底是不是同一个业务对象。没有这个映射,RAG 只会把冲突上下文喂给模型,智能体越能干,错得越快。 这也是我部分同意它强调 semantic layer 的原因。过去一年微软、Salesforce、Databricks、Snowflake 都在往语义层、catalog、governance、policy enforcement 上堆东西,方向很清楚:不是再造一个更大的模型,而是给模型一个可执行、可追责的数据平面。我没看到正文给出任何实现细节,比如是 knowledge graph、统一 catalog、还是基于 policy engine 的虚拟语义层;这些没披露,落地难度差很多。把它们统称成“语义层”很顺口,真做起来完全不是一回事。 “SaaS 不会被智能体替代”这句我倒觉得基本靠谱。至少在未来几年,系统 of record 还是系统 of record。总账、HR、采购、报销这类核心流程,不会因为 agent 出现就把事务一致性、权限模型、审计要求扔掉。问题是,SaaS 也不会毫发无损。过去一年已经能看到一个变化:很多 SaaS 的交互层在被 agent 抽空,价值开始往 API、事件总线、权限控制、流程编排回落。也就是说,应用不会消失,但“座位费 + 页面入口”这套护城河会变薄。文章这块说得太轻了。 还有一点我不太买账:文中引用 SAP 高管,把“模型进步没那么重要,数据架构更重要”讲得很满。站在 SAP 的位置,这个表态当然顺,因为它天然受益于企业把注意力拉回数据和治理。我不否认数据底座的重要性,但模型能力提升同样在改写基础设施要求。过去 12 个月,长上下文、工具调用、结构化输出、代码执行、低延迟路由都在变,这些能力直接决定企业要不要做预处理、要不要重建检索链、要不要做人审分层。把模型变量压低,多少带一点供应商视角。 我的结论很简单:这条不是在讲“智能体需要更多数据”,而是在讲“智能体需要被授权的业务上下文”。这两者差很多。前者会把企业继续推向堆湖、堆向量库、堆文档;后者逼你先解决主数据、语义一致性、身份权限、可审计执行。标题给了一个正确方向,正文没给 deployment 级别的方法论,也没给 benchmark、ROI 或失败案例拆解,所以别把它当路线图,最多当企业软件阵营的一次防守性定调。
HKR 分解
hook knowledge resonance
打开信源
68
SCORE
H0·K1·R1
13:00
48d ago
● P1NVIDIA 博客· rssEN13:00 · 03·10
NVIDIA 与 Thinking Machines Lab 宣布长期吉瓦级战略合作
NVIDIA 与 Thinking Machines Lab 达成多年合作,计划最早明年初部署至少 1 吉瓦的 NVIDIA Vera Rubin 系统,用于前沿模型训练与可定制 AI 平台。合作还涵盖面向 NVIDIA 架构的训练和推理系统设计,并扩大企业、研究机构和科学界对前沿 AI 与开放模型的使用;投资金额正文未披露。真正值得盯的是 1 吉瓦级算力承诺已写进合作条件,这不是普通云采购。
#Inference-opt#Tools#NVIDIA#Thinking Machines Lab
精选理由
1 吉瓦 Vera Rubin 部署承诺把这篇合作公告抬到推荐线以上,HKR 三项都成立:规模有钩子,时间点和系统名够具体,也直击前沿训练算力竞争。分数没进 P1,因为来源是厂商博客,投资额、算力归属和交付结构正文未披露。
编辑点评
NVIDIA 把至少 1 吉瓦 Rubin 提前锁给 Thinking Machines Lab,这更像在给 Mira Murati 预付一张“头部实验室入场券”。
深度解读
NVIDIA 把至少 1 吉瓦 Vera Rubin 系统绑定给 Thinking Machines Lab,目标是明年初部署。这句话本身就够硬,因为 1 吉瓦不是“多买点 GPU”,而是接近数据中心园区级别的电力与交付承诺。我的判断很直接:这条合作首先不是产品新闻,而是资源配给新闻;其次也不是普通财务投资,而是 Nvidia 在头部实验室版图里提前押位。 正文给出的信息其实很少。已披露的只有三件事:多年合作、至少 1 吉瓦 Rubin、NVIDIA 还投了钱。投资金额、交付节奏、机柜数量、网络拓扑、HBM 配比、训练与推理各占多少,正文都没披露。所以我不买任何“已锁定下代超级实验室胜局”的叙事。现在能确认的,是 Nvidia 愿意把非常早期、非常稀缺的 Rubin 产能拿去绑定一个还没公开模型、还没公开技术路线、甚至产品形态都很模糊的新实验室。这件事比 PR 口号更有信息量。 回到行业上下文看,这很像 2023 到 2025 年那条线的延长:顶级模型公司融资,融资的核心用途不是招人,而是先锁电、锁地、锁芯片、锁封装、锁网络。xAI 当年先讲 10 万卡,再推到更大集群;OpenAI 跟 Oracle、CoreWeave、Microsoft 的算力安排,本质上也是把“模型能力”前置成“基础设施期货”。Thinking Machines Lab 现在连公开旗舰模型都没有,Nvidia 就愿意给到 1 吉瓦级承诺,说明两件事。第一,Murati 的个人网络和团队号召力,已经能直接兑换成供给。第二,Nvidia 现在卖的不是单代芯片,而是对未来两三代训练能力的排队权。 我对这条叙事有两个保留。一个是时间表。正文写的是“最早明年初”部署 Rubin。这个时间点听起来很积极,但大规模集群落地从来不只是芯片问题,还卡在变电、制冷、机房、交换网络、软件栈稳定性。我自己没看到这里披露任何 site、PUE、网络层级或者合作数据中心方,所以“明年初”更像意向窗口,不是已验收的上线节点。另一个是 1 吉瓦口径本身。它到底是 IT 负载、园区总功耗,还是长期分期累计?正文没说。这个差别非常大。按不同口径换算,落到 GPU 数量上会差出一截,外界现在没法严肃估值这笔单子。 还有个地方我觉得要泼点冷水:NVIDIA 博文把“开放模型”“企业、研究机构、科学界可访问”也塞进合作目标里,这话我先不信。原因很简单,算力承诺和开放分发不是一回事。过去一年,很多公司都会把 frontier training、enterprise platform、open access 三个叙事绑在一起讲,但真到资源紧张时,优先级通常是内部训练和高价商用客户。除非 Thinking Machines Lab 后续公开 API 价格、开源许可、可复现实验接口,不然“扩大访问”先当愿景,不当事实。 从 Nvidia 视角看,这单生意还有一层更现实的目的:它在给 Rubin 预热需求曲线。Blackwell 这一代已经把市场训练成“先抢配额,再谈 ROI”,Rubin 如果要延续这个节奏,最有效的办法就是让几个明星客户把产能叙事先坐实。Murati 是极强的品牌资产。她从 OpenAI 出来后,市场一直在等她拿到谁的钱、谁的芯片、谁的云。Nvidia 这次等于抢先回答了第三个问题:先用我的,而且是大规模地用。 但我还是有点怀疑,这笔合作对 Thinking Machines Lab 是不是太早、太重。前沿实验室当然需要算力,可 1 吉瓦级基础设施会反过来塑造研究路线:你会被迫追求足够大的训练任务、足够快的产品化和足够高的资本效率,不然固定承诺会变成包袱。OpenAI、Anthropic、xAI 至少都有更明确的模型与产品出口;Thinking Machines Lab 现在公开信息少得多。我还没查到他们的首个模型计划、数据策略、对齐方法或商业接口,这使得这笔大单更像“先占坑,再定义路线”。这不是坏事,但风险不低。 所以我对这条的结论是:Nvidia 在用稀缺产能加股权投资,亲手塑造下一批头部实验室名单。1 吉瓦说明 Murati 已经拿到基础设施信用。正文没披露的那些东西——投资金额、功耗口径、具体部署地点、首批交付规模——反而决定这笔合作到底是已进入施工期,还是一张写得很重的意向书。
HKR 分解
hook knowledge resonance
打开信源
87
SCORE
H1·K1·R1
06:20
48d ago
少数派 · 直链· rssZH06:20 · 03·10
年度征文|“你是专家”这句话,到底是在帮 AI 还是在害你?
文章提出:对 AI 说“你是专家”有用,但作用不等于常见理解。RSS 摘要只给出“让 AI 扮演专家、使用‘你’‘我’有用”这一结论,正文未披露实验设置、模型名称、指标结果。真正值得盯的是提示词人格化是否有可复现收益;这篇摘要还不够支撑判断。
#Reasoning#Commentary
精选理由
标题有反常识钩子,提示词经验争议也有讨论度,所以 HKR-H 和 HKR-R 成立。HKR-K 不成立:RSS与摘要只确认结论,正文未披露模型、实验设置、指标或案例,命中零来源观点文硬排除,重要性封顶 39。
HKR 分解
hook knowledge resonance
打开信源
43
SCORE
H1·K0·R1
00:00
48d ago
Hugging Face 博客· rssEN00:00 · 03·10
Hugging Face Hub 推出 Storage Buckets
Hugging Face 宣布在 Hugging Face Hub 推出 Storage Buckets,已确认的事实只有产品名称与发布平台。来源仅含标题,正文为空;容量、定价、权限模型与 API 形态均未披露。真正该盯的是它会不会把 Hub 从模型托管扩到通用数据存储,但标题还不足以下判断。
#Tools#Hugging Face#Product update
精选理由
这条只有标题信息,HKR 三轴都不成立:名字有了,机制、价格、容量、API 形态都没给。按低位处理更稳,先排除;后续如果补出数据面或工作流影响,再回到产品更新带重新评估。
HKR 分解
hook knowledge resonance
打开信源
41
SCORE
H0·K0·R0

更多

频道

后台