ax@ax-radar:~/all $ grep -v 'tier=excluded' stream.log
44 srcsignal 72%cycle 04:32

全部 · 2026-02-04

5 items · updated 3m ago
RSS live
2026-02-04 · 星期三2026年2月4日
15:14
82d ago
Google 研究院· rssEN15:14 · 02·04
Sequential Attention:让 AI 模型更轻更快且不降准确率
Google Research 发布了题为 Sequential Attention 的工作,标题声称可在不牺牲准确率条件下,让 AI 模型更轻、更快。当前只有 RSS 标题,正文为空;方法机制、提速幅度、参数规模、基准名称均未披露。真正该盯的是可复现证据,别被标题先带节奏。
#Inference-opt#Google Research#Research release
精选理由
Google Research 的标题有吸引力,HKR-H 与 HKR-R 成立:它把“更轻、更快、不降准确率”放在一起,直指推理成本焦虑。HKR-K 不成立,因正文为空,机制、提速数字、参数规模和基准都未披露,所以只能给低分 all。
编辑点评
Google Research 只放出标题就宣称“更轻更快且不掉点”。这类三连好消息,我先按营销上限看,除非它把基准、算子路径、硬件条件一次讲清。
深度解读
Google Research 现在只给出一条标题,声称 Sequential Attention 能在“不牺牲准确率”条件下,把模型做得更轻更快。正文空缺,机制未披露,提速幅度未披露,参数或 KV cache 变化未披露,跑分基准也未披露。信息量到这一步,其实还不够判断它是新注意力公式、推理时重排、还是特定硬件上的 kernel trick。 我对这种标题天然会压一档看。注意力优化这条线,过去一年已经被讲得太满了:FlashAttention 系列主要吃的是 IO 感知和 kernel 实现;MQA、GQA 吃的是 KV cache 和带宽;paged attention、speculative decoding、sliding window 则是在服务系统和长上下文里抠延迟。每一类都能在某个条件下给出漂亮数字,但条件一换,收益就会塌。标题里把“leaner”“faster”“without sacrificing accuracy”三件事绑在一起,我会先问三个问题:省的是参数、激活、还是 KV;快的是训练、prefill、还是 decode;准确率不掉,是在 ImageNet 这类老基准,还是在 LLM 的 long-context、code、reasoning 上。现在这些都没有。 我还有个疑虑:这名字听起来像算法层改动,不像纯工程优化。如果它改了 attention 顺序或近似路径,准确率“无损”往往只在作者选的任务上成立。去年很多线性注意力、稀疏注意力、状态空间替代方案都碰过这个墙:吞吐提升是真的,分布一偏、上下文一长,质量回撤也是真的。我没看到正文,所以不能说它会重演这条路;我只能说,标题没给可复现条件前,这个结论不该先收。 Google Research 自己过去也有两种发布节奏:一种是像 Flash/TPU 相关工作那样,paper、代码、硬件设定一起给,行业能很快复现;另一种是 blog 先放概念,细节晚到,最后只在自家栈上成立。现在这条更像后者,至少公开信息是这样。我会等三样东西:具体 benchmark 名称,和 FlashAttention-3 或 GQA 的对比口径;在哪类模型上测,尤其是 decoder-only LLM 还是视觉模型;有没有代码或伪代码。没有这三样,这条先别高估。
HKR 分解
hook knowledge resonance
打开信源
60
SCORE
H1·K0·R1
13:10
82d ago
MIT 科技评论· rssEN13:10 · 02·04
MIT Technology Review《The Download》:AI企业投注下一代核电,GPT-5数学成果引发争议
MIT Technology Review 在 2026 年 2 月 4 日的《The Download》同时点名两件事:AI 公司押注下一代核电,社交媒体放大 GPT-5 数学突破宣传。正文可确认的细节是,争议源于 OpenAI 研究员 Sébastien Bubeck 发帖称 GPT-5 参与解出 10 个未解数学题,Google DeepMind CEO Demis Hassabis 公开回称“这很尴尬”。真正值得盯的是,帖子是 newsletter 摘要,核电投资规模、数据中心用电数字与数学结果验证条件都未披露。
#Reasoning#MIT Technology Review#OpenAI#Google DeepMind
精选理由
这是一篇 newsletter 式重述,正文只确认 Bubeck 的“10 个未解题”发帖与 Hassabis 回应,未给出验证条件、核电投资规模或数据中心用电数字。HKR 的 H、R 勉强成立,但命中 hard-exclusion 的陈旧重述,重要性封顶在 39 以下。
HKR 分解
hook knowledge resonance
打开信源
44
SCORE
H1·K0·R1
13:00
82d ago
OpenAI 博客· rssEN13:00 · 02·04
解构 Codex harness:OpenAI 如何构建 App Server
OpenAI 发布一篇关于 Codex harness 的 App Server 文章,但 RSS 正文为空,架构、接口与部署条件未披露。标题只确认主题是“如何构建 App Server”;别被标题骗了,真正缺的是可复现细节与技术参数。
#Code#Tools#OpenAI#Codex
精选理由
标题只确认 OpenAI 发布了 Codex harness App Server 构建文,RSS 正文为空,架构、接口、部署条件都未披露。HKR 三轴都不成立,且触发零来源内容硬排除,importance 压到 34,tier 记为 excluded。
HKR 分解
hook knowledge resonance
打开信源
40
SCORE
H0·K0·R0
00:00
82d ago
Hugging Face 博客· rssEN00:00 · 02·04
Community Evals:我们不再只信黑箱排行榜,而是转向社区评测
Hugging Face 以“Community Evals”为题,直接质疑黑箱排行榜的可信度,并把对比基准指向社区评测。正文为空,除标题外未披露评测任务、参与机制、样本规模或上线时间;真正值得盯的是,它把“谁来评”放到“谁排第一”之前。
#Benchmarking#Hugging Face#Commentary#Benchmark
精选理由
标题把黑箱排行榜与社区评测对打,H、R 成立。正文为空,只确认项目名,没有任务设计、参与机制、样本规模或上线时间,触发“零来源内容”硬排除,分数封顶 39。
HKR 分解
hook knowledge resonance
打开信源
42
SCORE
H1·K0·R1

更多

频道

后台