18:09
83d ago
FEATUREDMIT 科技评论· rssEN18:09 · 02·02
我们对 AI 真实性危机的判断错在哪
MIT Technology Review 指出,美国国土安全部已确认使用 Google 和 Adobe 的 AI 视频生成器制作面向公众内容,相关报道发布于上周四。正文给出两个失效机制:Adobe 仅对纯 AI 生成内容自动加标签,混合编辑需创作者自选;X 还能去掉或不展示标签。真正值得盯的是,Communications Psychology 新论文称,受试者即使被明确告知“认罪视频”是 deepfake,仍会据此判断有罪,查真已不是信任重置键。
#Multimodal#Safety#Tools#US Department of Homeland Security
精选理由
这篇评论有实锤,不是空泛观点:正文写到 DHS 已使用 Google、Adobe 的视频生成器,也点出 Adobe 与 X 的标签机制缺口。Communications Psychology 的实验把讨论从“能否识别”推进到“识别后仍会受影响”,HKR 三轴成立;但它不是产品发布或行业突发,分数放在 featured 中段。
编辑点评
美国国土安全部已用 Google、Adobe 生成视频面向公众,这条不新鲜;更糟的是,标签失灵后,辟谣也清不掉最初那次情绪注入。
深度解读
美国国土安全部已确认使用 Google 和 Adobe 的视频生成器制作公开内容,现有标签机制在“混合编辑”条件下默认失效。我的判断很直接:这篇文章说的不是“真假难辨”,而是“即使已经验明是假的,影响还留着”。这比常见的 deepfake 恐慌更麻烦,因为它把问题从检测率,推到了传播学和认知层。你把水印、签名、来源链全补上,也未必能把那一下情绪锚点拿掉。
文中给了两个很具体的失效点。第一,Adobe 只给“纯 AI 生成”内容自动加标签,混合编辑要创作者自选。只要流程里掺了真人拍摄、后期修图、局部生成,披露就掉到自愿层。第二,X 这类平台还能去掉或不展示标签。这个机制设计本身就说明,Content Authenticity Initiative 这套路线从一开始就更像来源记账,不像强制执行。2024 年这套东西被讲得很大,我一直觉得叙事偏乐观:它假设平台愿意保留凭证,创作者愿意上传凭证,用户愿意点开凭证。三个条件少一个,链路就断。
文章里最有分量的是那篇 Communications Psychology 论文:受试者即使被明确告知“认罪视频”是 deepfake,还是会据此判断有罪。正文没给样本量、效应量、实验任务细节,这些都很关键,我还不能替它背书到多大范围。但这个方向并不突兀。过去一年里,很多关于 misinformation 的研究都在重复一个老问题:纠正信息能改口头回答,改不掉最初形成的心理表征。AI 把这个问题放大了,因为视频和音频的情绪载荷比文字高得多。你告诉人“这是假的”,不等于大脑会把刚才那段画面自动回收。
我对文中一处叙事也有保留。作者把 DHS、白宫修图、媒体误用图片放在同一篇里处理,最后强调三者不能混成一类,这个判断是对的;但政府传播和媒体失误在现实里的后果差异,文章还是写轻了。国家机构拿纳税人的钱做面向公众的合成传播,和媒体误播一张被 AI 修过的照片,不是同级风险。前者自带权威背书,还可能连着执法、移民、治安这些高压议题。这里的问题不是“大家都在修图”,而是公权力开始把生成式内容当作常规宣传工具。
我还想补一层文章里没展开的上下文。去年到今年,几家大平台都在往设备端和创作端塞生成能力:Google、Adobe、Meta、OpenAI 各有自己的入口。生成按钮离发布按钮越近,内容凭证就越容易变成事后装饰,而不是发布前门槛。C2PA 这类标准解决的是“有没有留下来源信息”,解决不了“平台是否展示”“二次剪辑是否保留”“截图录屏再上传怎么办”。这不是标准不重要,是它只能管原件,管不住传播环境。
所以我不太买“多做标注就能修复信任”这个说法。标注是基础设施,不是解药。更现实的治理对象有三个:一是政府机构是否被要求强制披露所有生成式编辑,不能 opt-in;二是平台是否默认展示且不可去除;三是高风险场景能否直接限制合成内容的官方使用。正文没有给出这些制度路径,只给了危机感。
说真的,这条最刺耳的地方,是它把 AI truth crisis 从“识别问题”改成了“残留影响问题”。前者还能靠更好的检测器、签名和取证工具堆进步;后者碰的是人脑,而且人脑对第一眼画面的偏爱,几十年都没被纠正技术治好。
HKR 分解
hook ✓knowledge ✓resonance ✓
83
SCORE
H1·K1·R1