ax@ax-radar:~/podcasts/lex-fridman-yt $ ls -t podcasts/
44 srcsignal 72%cycle 04:32

播客·视频

3 episodes · updated 3m ago
6 个频道在监控
筛选精选全部仅精选
Lex Fridman 播客3
2026-03-23 · 星期一2026年3月23日
16:24
35d ago
● P1Lex Fridman 播客· atomEN16:24 · 03·23
Jensen Huang:NVIDIA、4 万亿美元公司与 AI 革命|Lex Fridman Podcast #494
Jensen Huang 在 Lex Fridman 播客中称,NVIDIA 为 AI 集群做“极限协同设计”,目标是在 1 万台计算机上取得远超线性扩展的加速。访谈给出的具体约束是 Amdahl 定律、模型与数据分片、网络交换、供电和散热;他还说自己有 60 多名直接下属。真正值得盯的是,NVIDIA 把竞争面从单卡推到了整机柜和数据中心。
#Inference-opt#Tools#NVIDIA#Jensen Huang
精选理由
这是一手高权威访谈,不是新品发布,但信息密度够高。HKR 三轴都过:标题有强钩子,正文给出“1 万台计算机”“Amdahl 定律”“模型/数据/流水线切分”等机制,且直指 NVIDIA 的系统级护城河;分数不到 85,因为缺少可落地的新产品或新数据披露。
编辑点评
黄仁勋把 NVIDIA 的战场抬到 1 万台计算机级别,这话我买一半;系统协同是真护城河,"远超线性扩展"先别跟着鼓掌。
深度解读
黄仁勋把目标定义成“1 万台计算机拿到远超线性扩展”,这句比公司估值更有信息量,但我对这句宣传口径是有保留的。Amdahl 定律、模型切分、网络交换、供电、散热,这些约束他说得都对;问题在于,只要跨到 1 万节点,任何“超线性”都高度依赖负载形态、并行策略、通信掩蔽和基线选取。正文给了问题框架,没给 benchmark、没给 workload、没给测量口径,所以这句现在更像工程目标,不是可复现结论。 我倒是认同他另一层意思:NVIDIA 现在卖的早就不是单颗 GPU。访谈里他把 GPU、CPU、HBM、交换、NIC、机柜、电力、液冷、系统软件放进同一套设计约束里,这个叙事不是包装。过去一年这条线已经很清楚了:从 HGX 到 DGX,再到 NVL72 这类整柜系统,采购决策在很多云厂和大模型公司那里已经从“买多少卡”变成“拿什么拓扑、多少功率密度、什么冷却方案、多久能上线”。我一直觉得很多人低估了这里的门槛,不是芯片参数,而是把供电、网络、软件栈和部署窗口同时卡住的交付能力。你单看 FLOPS,AMD 和定制 ASIC 都能追;你把交付周期和集群利用率算进去,差距就没那么容易抹平。 但我也不太买“只有 NVIDIA 能做系统级协同”这套隐含结论。过去一年 AMD MI300 系列已经在几家头部云和模型公司拿到真实部署,Google TPU 也从来不是单芯片竞争,而是从 pod 级别打包交付。AWS Trainium 走的也是同一路数:芯片不一定压过 NVIDIA,体系内网络、软件、租赁模式能先拿下一部分负载。也就是说,机柜级、数据中心级竞争不是 NVIDIA 一家发明的,只是它把这一套商业化和产品化推进得最快。黄仁勋这次把“极限协同设计”讲得很顺,我能理解,因为这正好把 CUDA 护城河扩成了“CUDA + NVLink + Spectrum/InfiniBand + 供电散热方案 + 交付组织”。这个组合比单卡护城河厚得多。 他说自己有 60 多名直接下属,这个细节我反而觉得很关键。多数 CEO 会把跨学科协调层层下放,他没有。他在讲的不是个人管理神话,而是一种公司结构:让光互连、内存、交换芯片、GPU、系统软件这些负责人尽量短路径地在一个决策面上碰撞。这和传统半导体公司按 BU 切开的做法不一样。这个组织形式跟 NVIDIA 现在的产品形态是匹配的,因为瓶颈已经不在某一颗芯片,而在接口处。谁把接口收紧,谁就更容易把性能、良率、功耗、可维护性一起拉上去。 我对这段访谈最大的疑虑,还是它把“工程上追求超线性”说得像“商业上稳定可交付”。这两件事不是一回事。训练集群里,特定并行策略配合更高效的网络拓扑,确实会让新增节点带来的收益好于朴素预期;但一到真实生产,故障率、尾延迟、运维复杂度、作业编排都会吃掉纸面增益。NVIDIA 过去几代系统强,不只是因为峰值性能高,也是因为它让客户少踩坑。可这部分在访谈里几乎没展开,正文也没给案例。 我还想补一个文章外的背景。去年到今年,行业里一个很实在的变化是 token 成本下降速度,已经越来越受系统设计影响,不再只是模型蒸馏或芯片代际升级。推理端尤其明显:同样模型,批处理、KV cache、互连拓扑、内存带宽和编排软件,最后都会反映到每百万 token 的成本上。黄仁勋现在反复把叙事从“更强 GPU”拉到“更完整数据中心”,就是因为单芯片时代那套比较表快不够用了。 所以我对这条的判断是:方向没问题,口径有点冲。NVIDIA 的优势确实越来越像系统公司,不再只是芯片公司;但“远超线性扩展”这种话,没 workload、没基线、没复现条件,我不会替他转述成事实。给从业者的启发也不是“大家都去做大机柜”,而是接口正在吃掉器件。谁能把训练和推理里的网络、内存、软件调度、供电散热一起算,谁才配谈下一轮护城河。
HKR 分解
hook knowledge resonance
打开信源
86
SCORE
H1·K1·R1
2026-02-12 · 星期四2026年2月12日
03:07
74d ago
● P1Lex Fridman 播客· atomEN03:07 · 02·12
OpenClaw:爆红 AI Agent 背后的 Peter Steinberger|Lex Fridman Podcast #491
Lex Fridman 第491期播客采访 Peter Steinberger,讨论开源 AI agent OpenClaw;正文称其 GitHub 星标已超17.5万到18万。正文确认它可接入 Telegram、WhatsApp、Signal、iMessage,并允许用户选择 Claude Opus 4.6、GPT 5.3 Codex 等模型;具体架构、评测与安全边界未完整披露。真正值得盯的是系统级权限与自修改能力带来的安全面,这不是“会聊天”,而是可执行真实操作的 agent。
#Agent#Tools#Safety#Peter Steinberger
精选理由
这不是普通播客串谈。OpenClaw 作为高关注开源 agent,正文给出 17.5万到18万 GitHub 星标、Telegram/WhatsApp/Signal/iMessage 接入和自修改能力,HKR 三项都成立。分数停在 featured,不到 p1,因为架构、评测与安全边界都没讲透。
编辑点评
OpenClaw 把 18 万星换成了系统权限,这条我不敢按“产品出圈”看,它先是一次大规模安全实验。
深度解读
OpenClaw 这波爆红,我的判断很直接:它火,不是因为 agent 终于“可用”了,而是它把很多团队一直回避的权限问题,公开塞进了一个人人能 fork 的开源壳里。GitHub 星标到 17.5 万到 18 万,传播速度已经说明一件事:开发者现在要的不是更会聊的模型,要的是能碰 Telegram、WhatsApp、Signal、iMessage,能改自己代码,能直接替人执行动作的系统。问题也出在这里。能力边界一旦从 token 输出,换成系统调用、消息收发、文件读写,风险面就不是聊天机器人那一套了。 正文给出的关键信息其实很少。已披露的是 OpenClaw 可接入多类消息端,可选 Claude Opus 4.6、GPT 5.3 Codex 这类模型;Peter 还明确说过,agent 知道自己的源码,知道自己运行的 harness,还会按提示修改自己的软件。没披露的是更要命的部分:权限模型怎么切,默认能拿到哪些系统能力,是否做了工具级 allowlist,是否有跨应用确认,是否跑过越权、提示注入、数据外传这类安全评测,失败率是多少,回滚机制是什么。标题给了“viral agent”,正文没给这些,我不会替它补。 我对这条叙事有个明显 pushback:很多人把它讲成“从语言到行动的分水岭”,这个说法我不太买账。能操作电脑、能调工具、能看消息,这些部件 2024 年就齐了。OpenAI 去年那套 Computer Use,Anthropic 也做过类似方向,开源侧像 Open Interpreter、AutoGen、browser-use、还有一批 desktop agent 项目,思路都不新。OpenClaw 赢在组装方式和分发方式,不在底层科学突破。它把“个人电脑上的全权限 agent”做成了一个可复制、可围观、可二创的公共事件,所以才形成了这次情绪外溢。说白一点,技术积木早就在那,OpenClaw 把引信点着了。 我一直觉得,开源 agent 的门槛不在 planner,也不在 prompt,而在权限工程。消息应用接入是最敏感的一层。因为这里面混着身份验证、联系人关系、历史语境、外链点击、附件下载、支付和验证码。播客里甚至提到它会点“我不是机器人”按钮,这一下我有点愣住了。不是因为它多聪明,而是因为很多网站和风控系统默认把这一步当成人机边界。今天它点的是按钮,明天它读的是短信验证码,再往后就是帮你确认银行转账。只要同一执行链条里没有硬隔离,所谓个人助理和高权限木马,差的就只是一条 system prompt。 文章外的上下文也很关键。过去一年,几家大厂都在往 agent 推,但落地形态明显更保守:要么放在企业 SaaS 里,权限由工作流和 RBAC 卡死;要么放在浏览器沙箱里,动作范围受限;要么把高风险操作拆成必须人工确认的 checkpoint。原因很现实,不是他们不会做“全自动”,而是做了也不敢直接放给大众机器。OpenClaw 反过来走,把本地权限、私有数据、自由模型选择放在一起,这种产品决策很像早期 jailbreak 社区的速度感:先把边界撞出来,再看哪里会出血。开发者会爱这种自由,安全团队看到的会是另一张图。 还有一点别被播客气氛带走。Lex 把它讲成“ChatGPT 之后又一个历史节点”,这个包装很顺耳,但证据还不够。18 万星说明它抓住了开发者注意力,不说明它能长期稳定运行,更不说明普通用户会把自己的消息、文件、联系人、系统控制权长期交给它。agent 产品过去一年最常见的死法,不是 demo 做不出来,而是连续运行 3 天以后开始漂移:权限累积、上下文污染、工具调用串错、重试风暴、日志泄密。OpenClaw 如果真要从病毒式项目变成耐用系统,迟早得交出几样硬东西:任务成功率、长程运行稳定性、权限审计、失败回放、默认拒绝策略。正文一个都没给。 Peter 说 agent 知道自己的源码,还能改自己的软件,这个点很抓眼球。我承认,这对独立开发者有极强吸引力,因为它把“写程序”和“维护程序”合成了一条闭环。可我对自修改默认开启这件事保留很大怀疑。自修改最怕的不是一次改坏,而是你不知道哪一次改动让系统失去可解释性。代码 diff 能看,行为漂移更难看。要是再叠加多模型切换,比如 Claude Opus 4.6 和 GPT 5.3 Codex 在工具使用偏好、函数调用稳定性、拒答边界上都不同,复现实验会变得很难。你今天测通的路径,明天换个模型版本就未必还成立。 所以我看 OpenClaw,不会先问“它是不是 agent 元年代表作”,我会先问三个工程问题:默认权限是不是最小化,敏感动作是不是强确认,自修改是不是可回滚。三条里少一条,它都更像一场面向开发者社区的大型试玩。这个试玩当然有价值,甚至可能逼着整条赛道更快面对权限设计。但如果有人把它讲成“个人 AI 助手的终局形态”,我不会跟。现在已知的是它拿到了注意力和想象力,未知的是它能不能穿过安全、稳定性和责任归属这三关。后面这三关,才决定它是 Linux 式基础设施,还是又一个一周爆红的 agent 标本。
HKR 分解
hook knowledge resonance
打开信源
86
SCORE
H1·K1·R1
2026-01-31 · 星期六2026年1月31日

更多

频道

后台