ax@ax-radar:~/all $ grep -v 'tier=excluded' stream.log
44 srcsignal 72%cycle 04:32

全部 · 2026-03-13

7 items · updated 3m ago
RSS live
2026-03-13 · 星期五2026年3月13日
16:29
45d ago
Ben's Bites· rssEN16:29 · 03·13
我这周在构建什么,以及怎么构建
Ben Tossell 披露他上周工作坊吸引 1.3k 人报名,并发布一个给 Codex 或 Claude Code 使用的交互式 cookbook alpha0.1。正文列出其当前栈:GPT 5.4 XHigh 负责“proper code”,Opus 4.6 负责规划与设计;他还称自己做的 visualise skill 在 GitHub 已超过 200 stars。别被标题骗了,这不是产品发布,核心是个人 agent 开发流程与工具偏好复盘。
#Agent#Code#Tools#Ben Tossell
精选理由
这篇文章更像个人 builder log,不是正式产品发布。HKR 里只有 K 成立:它披露了模型分工、1.3k workshop 报名和 GitHub 200+ stars;但没有系统对比、可复现流程和更广的行业影响,所以放在 all。
编辑点评
Ben Tossell 用 1.3k 报名和 200 GitHub stars 证明了一件事:个人 agent 工作流内容已经能自带分发,但这离产品还很远。
深度解读
Ben Tossell 把 1.3k 人带进工作坊,又把一份 alpha0.1 cookbook 丢给 Codex 和 Claude Code,这条我看成“个人工作流商品化”的样板,不看成产品发布。重点不在那个教程链接,也不在 200 stars;重点在他把“我怎么和 agent 配合”直接包装成可复制体验,而且已经有人愿意先报名再试。 我一直觉得,2026 年很多 AI builder 的默认栈已经收敛到双模型分工:一个模型负责长代码生成,一个模型负责规划、拆解、设计。Ben 这里点名 GPT 5.4 XHigh 写“proper code”,Opus 4.6 做 planning 和 design,这个组合很像不少独立开发者这几个月公开说过的做法。原因不神秘:代码正确率、补全速度、上下文稳定性,往往不是同一模型同时最强。Anthropic 这半年在写作、结构化规划、前端品味上口碑更稳;OpenAI 系模型在代码执行链路和工具调用上更常被拿来干重活。我自己没系统跑过他这套 cookbook,但这个分工逻辑我买账。 我不太买账的是另一层叙事:把这些信号直接读成“新产品验证通过”。1.3k 报名是很好的内容分发数据,不是留存数据,不是付费数据,也不是完成率数据。正文没披露 workshop 转化率、cookbook 跑通率、部署成功率,也没披露 Codex 和 Claude Code 各自的失败率。Ben 还直接写了 Codex 在 workshop 里掉链子,这反而比漂亮截图更有信息量——今天所谓 agent 教学,最脆弱的一环还是现场稳定性,不是 prompt 设计。 另一个有意思的点,是他把“interactive cookbook”放在“step-by-step tutorial”对立面。这个判断我基本同意。过去一年,大量 AI 教学内容都卡在一个老问题:用户要在教程、IDE、终端、浏览器之间来回切,认知上下文一直断。把教程直接喂给 agent,让 agent 边做边教,确实更接近学徒制,而不是看文档做填空。去年到今年,OpenAI Codex、Claude Code、Cursor 的很多高留存用法,本质都在往这个方向靠:不是给你一个答案,而是给你一段可执行过程。 但这里也有个明显风险。把教程嵌进 agent,不等于教学质量自动上升。模型会补全,也会乱讲;会生成页面,也会把错误模式包装得很像最佳实践。Ben 推荐用户去读 agent 中间的 thinking/output,这个建议是对的,可惜大部分初学者并不会真的审。于是“交互式 cookbook”很容易滑成另一种外包:用户得到一个能跑的站点,却没建立排错能力。标题里那种“become a builder”式热情,我理解;真落到能力迁移,正文还没给出证据。 visualise skill 这段也挺说明问题。Claude 前一天刚上交互式图表和图解 beta,他第二天就 reverse-engineer 成一个可装到 agent 里的 skill,还拿到 200+ stars。这个速度说明两件事。第一,模型厂商刚放出一个可见能力,外围开发者马上会做二次封装,延展到别的平台。第二,所谓护城河经常不是“能力是否存在”,而是谁先把它变成默认工作流。200 stars 当然不算大项目,离插件级爆发还早;但对一个个人实验仓库,它足够说明需求真实存在。 我对“code is basically free nowadays”这句有点保留。token 单价这两年确实压下来了,Claude Code、Codex 这类工具也把生成门槛拉低了,但真不免费的部分从来不是首版代码,而是反复返工、审阅、设计取舍、上线后的维护。Ben 自己也承认 cookbook 站点还要再做 design pass,contrast 都不对。这个细节很诚实,也刚好说明现实:代码更便宜了,审美和判断反而更贵。 所以这条的价值,在于它把 agent 时代一个越来越清晰的分层摆到台面上:底层模型能力在趋同,上层差异开始落到工作流编排、教学体验、默认技能包、还有个人品牌带来的分发。Ben 这次拿到的不是产品胜利,更像先手卡位。要不要把它当成 business,我还没看到足够证据;要不要把它当成信号,我觉得得认真看。
HKR 分解
hook knowledge resonance
打开信源
64
SCORE
H0·K1·R0
16:00
45d ago
Dwarkesh Patel 播客· rssEN16:00 · 03·13
Dylan Patel 详解扩展 AI 算力的 3 个主要瓶颈
Dylan Patel 围绕扩展 AI 算力,点出 3 个主要瓶颈。当前只有标题信息,正文为空;瓶颈的具体名称、数据口径与复现条件均未披露。真正该盯的是约束维度本身,不是标题里的“deep dive”表述。
#Inference-opt#Dylan Patel#Commentary
精选理由
标题抓住算力扩展这个高关注议题,HKR-H 与 R 成立。正文为空,缺少任何数据、机制或例子,触发 hard-exclusion-zero-sourcing,分数封顶 39,只能列为 excluded。
HKR 分解
hook knowledge resonance
打开信源
42
SCORE
H1·K0·R1
15:16
45d ago
MIT 科技评论· rssEN15:16 · 03·13
为什么 physical AI 正成为制造业的下一项优势
Microsoft 与 NVIDIA 在 NVIDIA GTC 2026 宣称,将面向制造业展示可“今天部署、明天扩展”的 physical AI 系统。正文列出仿真、机器人、AI agents 与实时数据的组合,但未披露客户名单、价格、性能指标或落地时间;别被标题骗了,这更像合作方赞助评论,不是独立测评。
#Agent#Robotics#Tools#Microsoft
精选理由
这更像 Microsoft 与 NVIDIA 在 GTC 上围绕 physical AI 的制造业宣发,不是有数据的独立报道。HKR 三项都弱,且正文没有客户、价格、性能指标或落地时间,触发硬排除:厂商宣传 / 纯营销,importance capped below 40。
HKR 分解
hook knowledge resonance
打开信源
40
SCORE
H0·K0·R0
00:00
45d ago
硅谷101 播客· atomZH00:00 · 03·13
E228|谷歌 TPU 能撼动英伟达吗?前 TPU 工程师首次揭秘
这期第228集视频聚焦谷歌 TPU 与英伟达的竞争,并以前 TPU 工程师“首次揭秘”作为核心信息。标题已给出主角是 Google、TPU 和 Nvidia;正文为空,未披露工程师姓名、具体技术点、性能数字或时间范围。真正值得盯的是一手工程细节,但这条 RSS 只有标题信息。
#Google#Nvidia#Commentary
精选理由
标题把 Google TPU 与 NVIDIA 的竞争做成了悬念,HKR-H 和 HKR-R 成立。正文没有数据、案例、工程师姓名或技术细节,属于零来源观点内容,触发硬排除,分数封顶在 39。
编辑点评
这条只有标题,没有工程细节与性能数字;我先不买“能撼动英伟达”这种标题党。
深度解读
这条标题把 Google TPU 对 Nvidia 的竞争抬到了“能不能撼动”的层级,但正文是空的,连前 TPU 工程师是谁、做过哪代 TPU、讲的是训练还是推理,都没披露。能下的判断其实很有限:这更像一条内容导流标题,不足以支持产业判断。 我一直觉得,TPU 和 Nvidia 的竞争,外界最容易看错的点,是把芯片性能当成唯一变量。Google 真有优势的地方,从来不只是矩阵算力,而是它把 TPU、JAX/XLA、内部集群调度、模型团队和自家业务负载绑在一起用。这个模式在 Google 内部成立,在外部市场就没那么顺。Nvidia 过去两年吃下的,不只是 H100、B200 这类单卡优势,更是 CUDA、NCCL、推理框架适配、云厂商供给、开发者习惯这整套惯性。单说“TPU 能否撼动 Nvidia”,问题设得就有点粗。 如果这位前工程师讲的是架构史,价值会在细节。比如 TPU v4 到 Trillium 这一线,Google 在 pod 规模、互连、能效和自用负载匹配上到底踩过哪些坑。要是讲的是商业化,那就要看 Google Cloud 到底把多少内部能力变成了外部可买服务。我记得过去一年,Google 一直在推 Trillium TPU 给 Gemini 训练和推理背书,但公开世界里,开发者默认栈还是 Nvidia 更稳。我没查到这期视频有没有拿出客户迁移、成本对比、吞吐数字;标题没有,摘要也没有。 我对“前 TPU 工程师首次揭秘”这个包装也有点怀疑。前员工的价值,取决于他离开 Google 的时间点。假设他参与的是 TPU v3 或 v4,那对 2026 年的竞争判断未必够新。过去一年大模型训练的瓶颈,已经不只是芯片 MAC 数,更多是网络、内存、编译器、checkpoint、故障恢复和集群利用率。离开时间一拉长,很多一手信息会迅速过期。这个行业 18 个月就能换一代叙事,老内部视角不等于当下答案。 还有一个常被忽略的现实:Google 自己大量使用 TPU,并不自动等于 TPU 能在开放市场复制 Nvidia 的地位。这个差别,类似 AWS 自研芯片在自家云里很强,但并没有把外部开发者生态整体搬走。Nvidia 的强,不只因为它芯片快,也因为别人围着它写软件、做优化、配供应链。Google 若想“撼动”,至少要同时回答三个问题:外部客户迁移成本降了多少,主流训练框架支持到了什么深度,供给能不能稳定扩大。标题一个都没给。 所以这条我只能先给很保守的判断:如果视频里没有具体代际、基准、成本和部署案例,那它更像观点节目,不是情报源。要让我改观,最少得有几样硬信息:哪代 TPU 对哪代 Nvidia;训练还是推理;tokens/s、每美元吞吐、集群规模、软件迁移代价。没有这些,“撼动英伟达”就是情绪词,不是分析。
HKR 分解
hook knowledge resonance
打开信源
43
SCORE
H1·K0·R1

更多

频道

后台