ax@ax-radar:~/all $ grep -v 'tier=excluded' stream.log
44 srcsignal 72%cycle 04:32

全部 · 2026-03-16

7 items · updated 3m ago
RSS live
2026-03-16 · 星期一2026年3月16日
20:00
41d ago
NVIDIA 博客· rssEN20:00 · 03·16
NVIDIA DSX Air 用加速仿真缩短 AI 工厂首个 token 时间
NVIDIA 发布 SaaS 平台 DSX Air,在硬件到场前仿真 AI 工厂,把部署周期从数月压到数天,并把首个 token 时间从数周或数月压到数天或数小时。正文给出的机制是为 GPU、SuperNIC、DPU、交换机及存储、路由、安全、编排建立高保真数字孪生;CoreWeave、Siam.AI、Hydra Host 已在使用。真正值得盯的是,它把变更验证前移到生产前与维护前。
#Tools#Inference-opt#NVIDIA#CoreWeave
精选理由
HKR 里 H、K 成立:题眼清楚,正文也给了部署周期与 time to token 的压缩数字和数字孪生机制。它仍是 NVIDIA 自家 SaaS 推介,触发 cloud-vendor promo 硬排除,分数按规则压到 39 以下。
HKR 分解
hook knowledge resonance
打开信源
44
SCORE
H1·K1·R0
17:31
41d ago
Google 研究院· rssEN17:31 · 03·16
测试 LLM 在超导研究问题上的表现
Google Research 发布一篇题为《Testing LLMs on superconductivity research questions》的文章,核心事实是用 LLM 测试超导研究问题。RSS 片段未附正文,评测数据、模型名单、题目构成、基线方法均未披露。真正值得盯的是实验设计;只有标题,暂时不能把它当成能力结论。
#Benchmarking#Reasoning#Google Research#Benchmark
精选理由
标题只确认 Google Research 用超导研究问题测试 LLM,正文未披露模型名单、样本量、基线与结果。题材属于传统科学+AI 交叉,离 agent 与产品决策较远,触发 hard-exclusion-4;信息缺口也让 HKR 三轴都站不住。
HKR 分解
hook knowledge resonance
打开信源
41
SCORE
H0·K0·R0
12:35
42d ago
MIT 科技评论· rssEN12:35 · 03·16
《The Download》:玻璃芯片与“AI-free”标识
Absolics 将于 2026 年开始生产用于下一代计算硬件的特种玻璃面板,MIT Technology Review 称其目标是降低 AI 数据中心芯片的能耗。正文只给出公司名、时间点和“更强更高效”的方向,面板规格、制程节点、降耗幅度均未披露;同篇还提到多家机构正争夺全球通用的“AI-free”人类创作标识。
#Inference-opt#Absolics#Intel#MIT Technology Review
精选理由
标题靠“玻璃芯片+AI-free 标识”的反差拿到 HKR-H,但 HKR-K 不足:正文只给出 Absolics 2026 量产方向,没有面板规格、制程节点或降耗幅度。下载式混合简报缺少单一行业抓手,放在 low-value all 更合适。
编辑点评
Absolics 宣称 2026 年量产玻璃基板,但正文没给节点、翘曲、良率和降耗数字;“AI-free” 标识这半边,我看着更像情绪消费,不像可执行标准。
深度解读
Absolics 把 2026 年量产目标摆上台面,文章却没有披露任何关键工艺参数。我的判断很直接:这条现在还不能当成“AI 芯片降能耗”的实锤新闻,更像先进封装链条在往下一代基板材料试探。玻璃吸引人的地方,行业里讲了两三年了:尺寸稳定、平整度和更细线路潜力,理论上适合更高密度互连,也更适合 chiplet 继续堆。但从“适合”走到“数据中心省电”,中间隔着至少四道坎:大尺寸面板的翘曲控制、通孔和再布线良率、和现有封装线兼容性、还有整机级热管理。正文一项都没给。 我对“降低 AI 数据中心能耗”这个说法有点保留。先进封装当然会影响 I/O 功耗和带宽密度,这点没问题;但今天大模型训练和推理的主耗电,还是 GPU/加速器本体、HBM、网络和机柜级散热。单换基板材料,通常改的是系统效率曲线,不会单独把电费账单砍出一个戏剧化拐点。Intel 过去一年也频繁谈玻璃基板,我记得它给过 2030 前后更明确的产业化时间框架,但我没现场核过原话。现在 MIT 这条只给了 Absolics 和 Intel 名字,没给面板尺寸、TGV 方案、适配哪类封装。信息缺口太大,离“下一代 AI 芯片已定路线”差得远。 这条更有参考价值的外部背景,其实是 CoWoS、HBM 和基板长期卡脖子的现实。过去一年 Nvidia、AMD、Broadcom 都被先进封装产能掣肘,行业才会对玻璃这么上头。它首先是供应链和封装密度问题,其次才是能耗叙事。要是 Absolics 真有东西,后面该看到的不是媒体口号,而是客户名、封装形式、良率区间,或者至少一组链路损耗和热循环数据。没这些,我不会把它看成短期业绩变量。 “AI-free” 标识那半段,我更不买账。文章只说多家机构在争全球通用标签,正文没给认证流程、审计机制、误标处罚,也没解释怎么处理 Photoshop、母带修音、生成式填充这种灰区。没有可核验标准,logo 就只是道德姿态。这个方向让我想起食品行业的 organic、non-GMO、fair trade:最后起作用的不是图标设计,而是认证机构是否统一、抽检频率是否够高、跨境电商平台是否愿意配合。AI 内容更难,因为生成链条可逆性差,创作过程也不天然留证。Adobe 的 Content Credentials 至少在做 provenance,虽然覆盖率也不高;“AI-free” 反过来要证明没用过 AI,审计难度更大。 所以我看这篇 newsletter,前半是封装材料的早期信号,后半是文化焦虑找一个贴纸出口。前者要等工程数据,后者要等执法机制。现在两边都还停在叙事层。
HKR 分解
hook knowledge resonance
打开信源
51
SCORE
H1·K0·R0
09:37
42d ago
腾讯技术工程 · 公众号· rssZH09:37 · 03·16
腾讯 QQ 机器人接入 OpenClaw,官方“养虾”指南发布
按标题信息,腾讯把 QQ 机器人接入了 OpenClaw,并放出一份官方“养虾”指南。RSS 片段未给出正文,接入方式、可用范围、发布时间和“养虾”具体含义都未披露。真正该盯的是落地细节:是插件接入、Agent 编排,还是仅限单一玩法,标题还不够回答。
#Tencent#QQ#OpenClaw#Product update
精选理由
标题有新鲜感,但正文信息几乎空白。当前只确认腾讯 QQ 机器人接入 OpenClaw,并有一份官方指南;接入机制、可用范围、发布时间与安全边界都未披露,HKR 只过 H,放在 all。
编辑点评
腾讯把 QQ 机器人接入 OpenClaw,但正文缺席。我的判断很直接:这条先别吹生态,先看开放范围和可编排深度。
深度解读
腾讯把 QQ 机器人接入 OpenClaw,还放出一份“养虾”指南;标题给了方向,正文没给方法。我的判断是,这条现在还谈不上平台级变化,更像一次社区分发动作,或者特定玩法的官方背书。接入方式、灰度范围、是否面向普通 QQ 群开放,正文都未披露;“养虾”到底是 bot 人设养成、群内互动脚本,还是某种 agent 玩法,标题也没解释。 我对这类消息会先盯两个硬点。第一是接口层级:如果只是把 OpenClaw 包成一个插件,价值在拉新,护城河很薄;如果能调用 QQ 群消息、权限、文件、频道能力,再叠多 bot 编排,那就是另一回事。第二是分发口径:QQ 这种 IM 场景历史上最难的不是模型接进去,而是权限、审核、封禁、滥用控制怎么做。我一直觉得,国内大厂做 bot 平台,卡点从来不是“能不能接模型”,而是“能不能让 bot 长期活着”。 外部参照也很清楚。去年到今年,Discord、Telegram、Slack 上的 AI bot 已经把路径跑明白了:先做轻接入,再补工作流,再收紧权限。企业侧像 Slack,更重函数调用和审计;社区侧像 Discord,更重模板和分发。我还没看到 QQ 这条到底站哪边,所以现在把它讲成“腾讯 AI 社交入口成型”,我不太买账。先把文档、权限模型、可用地区和限流规则放出来,再判断这是不是一条真产品线。
HKR 分解
hook knowledge resonance
打开信源
58
SCORE
H1·K0·R0

更多

频道

后台