ax@ax-radar:~/all $ grep -v 'tier=excluded' stream.log
44 srcsignal 72%cycle 04:32

全部 · 2026-02-09

9 items · updated 3m ago
RSS live
2026-02-09 · 星期一2026年2月9日
11:45
77d ago
36 氪 · 直链· rssZH11:45 · 02·09
直击 iKKO MindOne 发布:小手机背后的“无感”AI理念
iKKO 发布方形小屏设备 MindOne,定位第二设备或轻量主力机,机身尺寸约为传统智能手机一半。该机内置两套网络:NovaLink 免费 4G+ 覆盖 60 多个国家和地区,vSIM 预计 2026 年 Q1-Q2 上线,覆盖超 140 个国家和地区;同时支持 Android 15 与 iKKO AI OS 双系统切换。真正值得盯的是它把 AI 放进现成手机形态,而不是再造新硬件入口。
#Agent#Multimodal#Tools#iKKO
精选理由
小尺寸手机承载 AI 入口有点击钩子,HKR-H 成立。正文主要是硬件形态、网络覆盖和双系统信息,未披露模型来源、端侧/云侧分工、价格与真实 agent 用法,HKR-K 与 HKR-R 都偏弱;这更像小厂硬件更新,不到 featured 线。
编辑点评
iKKO把 AI 塞进半部手机里,这个方向不花哨,但比一堆胸针和挂件更像能卖出去的东西。
深度解读
iKKO这次拿出一台约半个常规手机尺寸的 MindOne,想卖的不是“新入口”,而是第二设备这件事。这个判断我基本买账,因为 2024 到 2025 那波 AI 硬件里,最大的问题从来不是模型不够炫,而是用户根本不想再多学一套交互。Humane AI Pin 已经把这条路踩塌过一次,Rabbit r1 也证明了“单用途 AI 盒子”很难撑起日常留存。iKKO至少没再幻想重做操作范式,它直接借手机形态、安卓生态、摄像头和联网能力,把 AI 放进用户已经接受的壳子里,这比多数 AI 硬件创业公司的产品定义成熟。 文章给出的硬信息有几组:MindOne 机身约为传统手机一半;NovaLink 免费 4G+ 覆盖 60 多个国家和地区;vSIM 计划在 2026 年 Q1-Q2 上线,覆盖 140 多个国家和地区;系统可以在 Android 15 和 iKKO AI OS 之间切换。问题也正好出在这里。发布会讲得最响的是“无感连接”和“开箱即用”,但正文没披露 NovaLink 的带宽、速率限制、月度公平使用上限,也没披露这些 AI 功能到底跑本地、边缘还是云端。如果翻译、录音转写这类能力主要走云,免费网络就不是体验细节,而是成本中心。谁在为 token、流量和跨境连接买单,正文没说。 我对“双系统 + 专注空间”这套叙事有点保留。它听起来像 AI OS,实际更接近一个带网络特权和工具集成的 productivity mode。这个设计不是没价值,反而挺聪明:很多人并不需要一个全新的 AI 操作系统,只需要一个能把通知关掉、把转写翻译拉平、把少量高频 app 单独装进去的工作层。问题在于,这种需求是不是强到足以支撑一台独立硬件。Apple 的 Focus Mode、Android 的工作资料/专注模式、Boox 和一些小屏 Android 设备,过去都在碰“专注设备”这条线,声量不低,规模一直有限。iKKO如果想跨过去,靠的不会是“专注”两个字,靠的是它能不能把跨国联网、会议记录、翻译、相机和轻办公真的压成一个全天随身的组合包。 还有个地方我不太买发布会口径:把免费 4G+ 网络只给内置 AI 工具使用,这件事在演示里很顺,在长期产品上未必顺。用户不会天然接受“这个按钮能联网,那个 app 不能联网”的边界。只要 Android 15 还在,大家就会拿它和正常手机比。你一旦允许社交、网页、第三方 app 存在,网络权限和资费边界就会迅速变成客服问题,而不是产品亮点。Rabbit 和 Humane 当年也都试图把复杂性藏起来,最后被现实拽回“套餐、时延、电量、兼容性”这些老问题。 我倒觉得这台机器最有机会的场景,不是大众消费电子爆款,而是高频差旅、跨语沟通、会议密集的人群。这里外部对比很直接:Plaud 这类录音转写设备能卖,靠的不是新交互,靠的是把一个痛点做得足够省事;一些翻译耳机能留住用户,也是同样逻辑。MindOne如果能把录音转写、翻译、漫游联网、轻量拍摄塞进一台真能放口袋的小设备里,它就不是“AI 手机替代品”,而是把几个零散工具收编成一台机器。这个定位更现实。 但说真的,正文信息还是太薄。标题已经给出“无感”AI,正文也给了网络覆盖和双系统,关键数据却没披露:售价、电池容量、端侧模型规格、云服务供应商、NovaLink 的成本约束、vSIM 资费、AI 工具的调用上限都没有。没有这些,现阶段我只能把 MindOne 看成一个方向正确、商业账还没展开的产品。它比多数 AI 硬件更像手机,也因此要按手机的标准被拷问:续航稳不稳,资费清不清,工具是不是天天会用,而不是发布会那 10 分钟里看着顺。
HKR 分解
hook knowledge resonance
打开信源
67
SCORE
H1·K0·R0
11:00
77d ago
● P1OpenAI 博客· rssEN11:00 · 02·09
OpenAI 将 ChatGPT 集成至美国国防部生成式 AI 平台
标题给出 1 个事实:ChatGPT 将被引入 GenAI.mil。正文为空,部署范围、时间、模型版本、权限边界均未披露。真正该盯的是落地条件,不是标题本身;没有正文,无法判断这是产品接入、合作,还是内部试点。
#GenAI.mil#Product update
精选理由
OpenAI 官方标题把 ChatGPT 与 GenAI.mil 绑定,军方落地这个钩子给了 HKR-H 和 HKR-R。正文为空,模型版本、部署范围、时间与权限边界都未披露,HKR-K 不成立,所以只落在低 60 分段,列入 all,不进 featured。
编辑点评
美国防部把ChatGPT接入GenAI.mil,覆盖300万人;这不是普通政企单子,是OpenAI正式站到美国国家安全软件栈里。
深度解读
美国防部把ChatGPT接入GenAI.mil,面向300万人使用。我的判断很直接:这条的分量不在“又拿下一单大客户”,而在OpenAI开始从通用助手供应商,变成美国政府默认可部署的基础能力之一。 两家来源的角度其实很清楚。OpenAI自家标题是“Bringing ChatGPT to GenAI.mil”,口径像官方落地通报,强调的是接入动作本身。36氪这边基本是在转述同一件事,给出的核心信息也只有“国防部合作”“接入GenAI.mil”“300万人可用”。两边表述高度一致,说明这条消息大概率就是围绕官方披露扩散,不是媒体各自挖到不同事实。也正因为这样,我会对信息密度更挑剔:标题已经给出平台名和覆盖人数,正文没有披露合同金额、部署范围、模型版本、数据分级边界、是否运行在隔离环境,这些才决定它到底是“宣传级接入”还是“任务级基础设施”。 我比较在意“300万人”这个数字。它听上去很大,但它描述的是潜在覆盖,不是活跃席位,不是付费席位,也不是高密度任务使用量。美国防部总人数级别本来就大,所以这个数更像组织范围信号,不等于实际渗透深度。我自己没查到这300万人是默认可访问、分批开放,还是只在特定网络和工作流里可调用。这里要留个心眼,别把组织总盘子直接读成使用强度。 说真的,这条更有信息量的地方,是OpenAI和美国政府关系的继续加深。过去一年,微软、Palantir、Anthropic、Scale AI、Anduril都在往国防和情报场景靠。市场已经形成一个很明确的判断:联邦采购流程慢,安全要求高,一旦过门槛,黏性和象征意义都远高于普通企业合同。OpenAI以前在军用叙事上一直比较谨慎,公开措辞常把重点放在防御、安全、行政效率这类低争议场景。现在直接把ChatGPT挂到GenAI.mil上,至少说明两件事:一是政策和合规口子已经开到足够大;二是OpenAI愿意承担更明确的地缘政治身份。 这也会反过来影响竞争。Anthropic过去在“安全叙事”上占了不少道德高地,Google有云和政府认证基础,微软有Azure Government链路,Palantir擅长把模型包进任务系统。OpenAI这次的意义,在于它不再只靠Azure那层被动进入政府,而是以ChatGPT这个直接品牌进入国防平台。品牌直达和底层供模不是一回事。前者会积累用户习惯、采购惯性和接口依赖,后续再往专用代理、文档工作流、代码助手、知识检索扩就顺了。 我也得泼一点冷水。标题里写的是ChatGPT接入GenAI.mil,不等于前线任务链已经把OpenAI当成决策核心。正文没披露任何作战级使用场景,也没说是否涉及情报分析、目标识别、指挥控制,只能确认是进入一个国防部生成式AI平台。这个边界很重要。过去很多“政府采用AI”的新闻,最后落地在总结纪要、文档生成、培训问答、代码整理,采购意义很大,任务敏感度没外界想得那么高。没有更多细节前,我不买“OpenAI深度军用化已经完成”这种说法。 另一个风险是治理责任开始上移。给300万人开放的系统,一旦输出错误、泄密、越权建议、引用虚构政策,不再是普通企业里一张工单的问题,而是制度问题。GenAI.mil如果只是把ChatGPT当聊天入口,风险还能靠权限和人工审核兜住;如果它被嵌入流程自动化、检索、代码、报告生成,模型评估、日志审计、版本回滚、提示词隔离都会变成硬要求。正文对这些全没提,我还没法判断OpenAI交付的是模型能力、完整工作台,还是某种受限接入层。 我一直觉得,2025到2026年的一个清楚趋势,就是头部模型公司都得回答同一个问题:你到底要不要成为国家能力的一部分。OpenAI这次给出的答案已经很明确了。外界以后再看它,不能只按消费级产品公司估值,也不能只按API平台理解。它在向“受监管、带地缘属性、进关键机构”的供应商靠。这个位置有更稳的收入,也有更重的政治账。 所以,这条新闻表面只有一句话,实质是身份变化。消息源一致,说明官方沟通成分很高。信息缺口也很大,尤其缺合同、部署和安全细节。我现在会把它看成一个强信号:OpenAI已经不满足于做大家都能用的模型,它开始做美国政府愿意正式放进体系里的模型。后面若披露专用环境、分类网络支持、席位计费或任务插件,这条的级别还会再上一个台阶。
HKR 分解
hook knowledge resonance
打开信源
91
SCORE
H1·K1·R1
06:40
77d ago
● P136 氪 · 直链· rssZH06:40 · 02·09
前百川智能联创焦可押注 AI 音频:要造“人”,做 AI 主播
前百川智能联创焦可称,来福电台已上线15位中文AI主播和2位英文AI主播,并在2025年下半年完成第二轮融资,两轮合计超1000万美元。产品当前日均使用时长约30分钟,AI可在不到1小时内生成时效内容,团队把DTU和长记忆基础设施视为核心指标与壁垒。真正值得盯的是,它想做的不是AI播客工具,而是可交互、可记忆用户偏好的AI主播;正文也显示其已与部分汽车厂商合作车载个性化AI电台。
#Audio#Memory#Agent#Baichuan
精选理由
这篇稿子的卖点不是“AI 音频工具”,而是带记忆、可交互的 AI 主播,H 和 R 都成立。正文还给出15+2位主播、两轮超1000万美元、日均30分钟、1小时生成内容和车厂合作等硬信息,K 扎实;但公司仍是早期创业项目,行业冲击面不到 p1。
编辑点评
来福电台拿到超1000万美元,不证明AI音频成了,只证明资本愿意赌“有记忆的声音人格”这条窄路。
深度解读
来福电台上线17位AI主播,日均使用时长约30分钟,还在2025年下半年把两轮融资做到超1000万美元。我的判断很直接:这条路押中的不是“AI播客”,而是把语音入口、推荐系统、长记忆绑成一个轻陪伴产品。这个方向我买一半。另一半,我保留怀疑。 我先说买账的部分。音频确实比视频更适合把AI做成“常驻界面”。通勤、做家务、开车,这些场景里,屏幕交互天然吃亏,语音交互有先天位点。文章给了两个硬数字:一是AI可在不到1小时内生成时效内容,二是用户日均时长30分钟。前者说明它不是做精品播客,而是做持续供给。后者说明用户至少愿意把它当背景层服务,而不是试玩一次就走。这个成绩放在国内消费级AI应用里,不算差。很多聊天机器人装机量大,但真实高频使用时长正文未披露,留存往往也没外界想得硬。 但我对焦可那套“AI时代产品形态是人,平台和工具过时了”的说法不太买账。平台没有消失,只是换了壳。你做17位AI主播,背后还是内容生产、分发推荐、记忆召回、商业化计费这四件老事。用户点名某个主播,未必代表“人”成立,也可能只是 voice skin 和推荐策略起作用。Character.AI、Replika、甚至 GPT-4o 语音阶段都证明过:用户会短期投射情感,但情感粘性要跨过3个月,靠的不只是人格设定,而是稳定记忆、低延迟、边界安全和持续新鲜感。文章里反复讲长记忆和DTU,这个方向是对的;问题是它没披露留存、复访频次、记忆命中率,也没披露语音轮次分布。没有这些数,“人”的说法还偏叙事。 外部参照其实很清楚。Google NotebookLM 在2024年把 Audio Overview 带火,靠的是“把文档转成可听总结”,本质是知识消费提效,不是人格陪伴。OpenAI 去年把高级语音模式推起来,展示的是实时对话和情绪反馈。国内豆包、通义、Kimi 一路补语音,打法是把语音当通用入口。来福选的是第四条线:既不做工具,也不做通用助手,而是做有固定主持风格的可交互节目流。这个切法有辨识度,但也很窄。窄的好处是体验可以做深,坏处是天花板会先撞上分发成本和内容同质化。 我还对“长记忆是护城河”这点有点警觉。长记忆当然重要,但它更像系统工程,不像独占模型能力。你需要用户授权、足够多的高质量语音上下文、稳定摘要、偏好更新机制、可解释的召回策略,还要处理记错和幻觉。只要主流模型供应商继续把 memory API、低延迟语音、会话摘要做成标准件,应用层的护城河就会从“我也有记忆”退回“我比你更会用记忆”。这不是没价值,但估值倍数会很不一样。文章里提到他们自己搭了生成管线、交互界面、长记忆 Infra,这说明团队知道问题在哪;正文没给延迟、成本、记忆保存时长,我还没法判断这套 infra 到底是壁垒,还是创业公司必交的学费。 车载合作倒是我觉得最像真钱入口的部分。车里本来就是音频主场,且场景连续、时长稳定、可采集偏好。比起单纯做一个手机端AI电台,进车机会大很多。我唯一的保留是,正文只说“与部分汽车厂商合作”,没披露装车规模、前装还是后装、是否独家,也没说单车价值。没有这些信息,这部分还不能当收入验证。 商业化那段正文被截断了,这很要命。焦可说广告最容易做,但音频广告效果难衡量,这个判断没问题。问题在于,如果不靠广告,订阅愿不愿意为“AI主播陪伴”持续付费?我没看到价格、付费率、ARPU。没有这些,融资额更多说明投资人认可方向,不说明模型闭环已经跑通。 所以我对这条的结论是:来福赌对了一个正在变真的交互习惯——用户愿意把声音当持续界面;它还没证明另一件更难的事——用户会把某个AI主播当成长期关系,并稳定付钱。前者已经有30分钟时长作证,后者正文没有数字。
HKR 分解
hook knowledge resonance
打开信源
86
SCORE
H1·K1·R1
00:00
77d ago
Hugging Face 博客· rssEN00:00 · 02·09
Transformers.js v4 现已在 NPM 提供
Hugging Face 宣布 Transformers.js v4 已在 NPM 发布,标题确认版本号为 v4。正文为空,发布范围、接口变更、兼容性和安装条件未披露;真正该盯的是包名、breaking changes 与运行环境,标题没有给。
#Tools#Hugging Face#Transformers.js#NPM
精选理由
这篇内容只确认 Transformers.js v4 已上架 NPM。HKR-H、HKR-K、HKR-R 都偏弱:正文没有 API 变化、breaking changes、运行环境或迁移条件,行业读者无法判断升级价值,所以放入 excluded。
HKR 分解
hook knowledge resonance
打开信源
42
SCORE
H0·K0·R0

更多

频道

后台