ax@ax-radar:~/all $ grep -v 'tier=excluded' stream.log
44 srcsignal 72%cycle 04:32

全部 · 2026-02-24

5 items · updated 3m ago
RSS live
2026-02-24 · 星期二2026年2月24日
22:00
61d ago
MIT 科技评论· rssEN22:00 · 02·24
藤蔓启发的机器人手指可伸出并抓取人体
MIT 与 Stanford 研发出一种藤蔓式机器人夹爪,可绕物生长并回卷提升,正文称其已能搬运多种物体和人。其机制是加压软管先以开环方式伸展缠绕,再回到基座夹紧并由卷扬机收回形成闭环;正文未披露载重、速度和人体测试规模。真正值得盯的是它把“伸入床下定位”和“回卷提举”拆成两阶段,这比传统夹爪更适合脆弱物体与护理转移。
#Robotics#MIT#Stanford University#Harry Asada
精选理由
标题有强反差,机构设计也给出可复述的两阶段机制,所以 H/K 成立。分数放在 all:正文没给载重、速度、人体测试规模,和模型、代理、开发工具这条主线距离较远,R 不足。
编辑点评
MIT 和 Stanford 把夹持拆成两段,这个思路比“会缠绕”本身更有价值;护理转移能不能落地,先看载重、速度和人体试验。
深度解读
MIT 与 Stanford 用一套开环伸展加闭环回卷的机构,把“先钻进去定位”与“再受力提举”拆成了两步;我觉得这条有意思,不在藤蔓仿生,而在它终于承认传统夹爪把两个任务硬塞进一次闭合里,结果两边都做不好。 正文给出的机制很清楚:加压软管先伸出、缠绕、甚至能从床下穿过去,再回到基座被夹住,最后由卷扬机回收形成吊带式提举。这个结构的工程价值,是把接触几何和承重路径分开。前半段追求可达性、顺应性、低碰撞;后半段才追求闭环受力和稳定提升。做机器人抓取的人都知道,很多系统不是缺“抓力”,而是根本进不到目标附近,尤其是床边转移、杂乱料箱取物、果蔬采摘这类场景。文章里举了西瓜、玻璃花瓶、壶铃三种物体,覆盖脆弱、易滑、偏重三个方向,选例子算聪明,但正文没披露单件重量、成功率、提升高度、循环时间,这些核心指标现在全空着。 我想到的外部参照有两个。一个是软体抓手这几年在仓储和农业里已经很多,从吸盘、欠驱动手指到颗粒阻塞 gripper,卖点一直是“温柔”。问题是它们通常只能在目标暴露、姿态友好时工作,碰到被遮挡、被压住、需要先穿入再发力的任务就很吃力。另一个是医疗转移设备,今天主流还是 sling lift,也就是先把布兜塞到人身下,再挂到吊机上。MIT 这套东西其实不是替代“吊带”逻辑,而是在把吊带自动生成。这个判断比“新型夹爪”更接近它的产品方向。 我对护理叙事还是有保留。文章说它“甚至能搬运人”,但没给人体试验规模,没说是健康志愿者、假人,还是临床环境;也没说单点压强、皮肤剪切力、失败保护、断电后的机械自锁。这些不是补充信息,是医疗和养老场景的准入门槛。你让一个系统钻到人身下,再把人卷起来,舒适度不是主观词,得看压力分布和动作时间。现有病患移位设备再笨,也是在几十年风险控制里长出来的。研究原型如果没有冗余制动和快速释放,护理机构不会碰。 工业场景我反而更买账一点。港口吊运、仓储装卸、料箱拣选,这些地方对“先穿入缝隙再形成受力闭环”是有需求的。特别是杂乱堆叠物体,刚性夹爪常常输在接近阶段,不是输在举不起来。可这里同样缺关键数字:卷扬速度有多快,软管耐久多少循环,缠绕路径是否需要视觉引导,还是完全靠被动顺应,正文都没讲。如果要接商业机械臂,控制系统还得回答一个问题:它怎么知道自己绕得足够安全,而不是越缠越乱。 说真的,这项研究让我想到过去几年 vine robot 的一条老路线:优势一直是“能到达”,弱点一直是“到达以后干什么”。这次算是给了一个更像样的答案——到达以后,把自己变成闭环吊带。这个思路我买;“很快进入养老护理”我不买。标题已经给出它能抓物和提人,正文未披露决定落地的三件事:载重、速度、人体测试。没有这三组数,它还停留在很聪明的机构设计,不是可部署系统。
HKR 分解
hook knowledge resonance
打开信源
70
SCORE
H1·K1·R0
22:00
61d ago
MIT 科技评论· rssEN22:00 · 02·24
AI 设计蛋白质或可帮助发现癌症
MIT 与 Microsoft 用 AI 设计短肽传感器,用尿检识别癌症早期信号,并推进覆盖 30 种癌症的居家检测套件。机制是纳米颗粒包覆可被癌症相关蛋白酶切割的肽段;被切后生成报告分子并随尿液排出。真正值得盯的是,团队称 AI 替代了早期试错筛肽流程,但正文未披露模型参数与临床准确率。
#Tools#Benchmarking#MIT#Microsoft
精选理由
HKR-H 和 HKR-K 成立:AI 设计蛋白做尿检筛癌的角度新,正文也写到蛋白酶切割短肽、纳米颗粒包覆和尿液读出。硬排除命中“传统科学 + AI 交叉且缺少 agent / product 含义”,对 AI 从业者的共鸣弱,分数压到 40 以下。
HKR 分解
hook knowledge resonance
打开信源
43
SCORE
H1·K1·R0
22:00
61d ago
MIT 科技评论· rssEN22:00 · 02·24
制造业迎来一针强心剂
MIT 于 2025 年 5 月启动 Initiative for New Manufacturing,目标是把美国制造业的创新与生产重新绑紧,并覆盖大中小企业。正文给出两个关键数:98% 的美国制造商员工不超过 500 人,约十分之一企业使用机器人;Berger 的判断很直接,真正该盯的是中小制造商的技术采用,而不是空谈制造业回流。
#Robotics#MIT#Suzanne Berger#Sally A. Kornbluth
精选理由
HKR-K 只靠两组 adoption 数字成立。HKR-H 与 HKR-R 都弱:标题平,正文也不是 AI 产品、模型或研究进展,更接近制造业政策评论;对 AI 从业者缺少可执行机制,所以降到 37 分并排除。
HKR 分解
hook knowledge resonance
打开信源
43
SCORE
H0·K1·R0
22:00
61d ago
MIT 科技评论· rssEN22:00 · 02·24
拉一下绳子,这些瓦片图案就能变成实用的 3D 结构
MIT 研究团队开发出一种算法,可把用户指定的 3D 结构转成平面瓦片,并用单根绳子一次拉动完成展开。方法分两步计算最少抬升点与最短连线路径,还把必须连接的边界纳入约束,以降低摩擦并支持回到平面。真正值得盯的是制造约束被显式写进优化,可用于夹板、便携座椅和人尺度结构。
#MIT#CSAIL#Mina Konaković Luković#Research release
精选理由
标题有反常识钩子,正文也给出两步优化与边界约束,H、K 成立。它属于计算制造/结构设计研究,正文没建立与模型、Agent 或产品化的联系,命中传统科学 crossover 排除,importance 压到 35。
HKR 分解
hook knowledge resonance
打开信源
41
SCORE
H1·K1·R0
13:40
62d ago
OpenAI 博客· rssEN13:40 · 02·24
Arvind KC 出任首席人力官
OpenAI 于 2026 年 2 月 24 日任命 Arvind KC 为首席人力官,负责招聘、入职、发展及协作制度。正文给出其曾任职 Roblox、Google、Palantir Technologies 和 Meta,但未披露汇报线、团队规模与上任时间表。真正该看的不是头衔,而是 OpenAI 把 AI 时代用工调整放进了高管职责。
#OpenAI#Arvind KC#Fidji Simo#Personnel
精选理由
这是一则 OpenAI 官方人事任命,主体有分量,但正文只给出职责范围与过往履历,缺少汇报线、团队规模、上任节奏等关键信息。HKR 只命中 R:从业者会关注 OpenAI 的人才与组织动作,所以进 all,不到 featured。
编辑点评
OpenAI 任命 Arvind KC 为首席人力官;我看这不是常规 HR 补位,而是把“AI 先改自己工作方式”做成管理层岗位。
深度解读
OpenAI 在 2026 年 2 月 24 日任命 Arvind KC 为首席人力官,我的判断是:这条人事的重点不在履历光鲜,而在 OpenAI 终于把“组织怎么被 AI 改写”从 PR 话术拉进了高管职责。正文给出的职责很清楚,覆盖 hiring、onboarding、development,以及协作和高绩效所需的 systems and policies。生效时间、汇报线、团队规模、前任是谁,正文都没披露,所以没法判断这是新增岗位,还是一次权力重组。 我对这条的第一反应其实挺直接:OpenAI 现在最缺的不是再讲一遍 AGI 愿景,而是把一个高速扩张、产品线分裂、研究和商业并跑的组织管住。文章自己埋了两个信号。第一,任命引语来自 Fidji Simo,不是 Sam Altman。第二,KC 被强调有 engineering depth,也做过 people leadership。这说明 OpenAI 要的不是传统 HR 负责人,而是能跟工程、产品、应用业务一起改流程的人。说白一点,很多公司的人力体系管的是 headcount,OpenAI 现在想管的是人和模型共同工作的生产函数。 这在行业里不是孤例。微软过去一年一直在把 Copilot 往内部工作流压,Google 也在反复讲“AI-assisted engineering”,但很少把这种转向公开上升为 Chief People Officer 的使命表述。Anthropic 那边更偏研究组织气质,公开叙事通常落在 safety、policy、evals,不太会直接把“公司如何用 AI 重做岗位设计”挂到 HR 口上。OpenAI 这次反而很公司化,也很现实:当你的产品已经在卖给企业,自己内部如果还没跑通 reskilling、role redesign、manager span、绩效口径,你对外那套 enterprise AI 方案会显得心虚。 但我对文中的叙事有个保留。文章把“对社会有义务,给 AI-enabled work 做样板”讲得很满,可它没有给一个可验证指标。比如内部多少岗位已经接入模型辅助?招聘流程里 AI 参与到哪一步?培训是否要求全员使用 ChatGPT、Codex 或内部 agent?管理者的 team span 会不会因为自动化扩大?这些一个都没给。没有基线,没有时间表,现阶段它更像价值宣言,不是执行披露。 还有一点我不太买账:OpenAI 把“people processes, policies, and systems match our ambition”说得很顺,可这类组织问题通常比模型发布慢得多。Meta、Google、微软都经历过同样的阶段——产品线扩张很快,内部权限、绩效、晋升、跨团队协作跟不上,最后摩擦先出现在人上,不出现在模型上。KC 在 Roblox、Google、Palantir、Meta 的经历听起来对口,尤其 Palantir 和 Meta 这种高压、强执行环境,确实接近 OpenAI 当前状态;但正文没披露他在这些公司具体负责的组织规模、任期、是否主导过 AI 转型,这个判断还不能下太满。 我自己更关心的是,这个岗位接下来会不会落到三件具体事上。第一,OpenAI 是否开始公开内部 AI 使用规范,不只是安全红线,还包括岗位设计和绩效口径。第二,招聘是否从“补人数”转向“补能放大模型杠杆的人”。第三,客户成功、销售、研究、应用工程这些团队,会不会出现更明显的职能重切。文章没给答案,但如果这只是一个传统 CPO 任命,它根本不需要把“AI 如何改变工作”写成主标题副句。现在这样写,我会把它当成组织层面的预告片。
HKR 分解
hook knowledge resonance
打开信源
69
SCORE
H0·K0·R1

更多

频道

后台