🦛当AI视频越来越“以假乱真”,如何构筑“防火墙”?🤥

发布时间:2026-03-12 21:12:32 来源: 半月谈

  

  中新网3月12日电(记者 吴家驹)近期,Seedance 2.0等AI视频生成模型,凭借其强大的视频生成能力引起广泛关注,而互联网上随之出现的一些伪造视频,也让公众心生担忧。

  当AI视频越来越“以假乱真”,如何构筑“防火墙”?

  近日,中国信息通信研究院人工智能研究所工程师郭苏敏在接受中新网专访表示,产业需要走体系化治理路线,加强生成内容的源头治理,推动分类分级的风险管控,打造“技管结合”的治理架构,并推动AI生成模型安全测试。

  图片由AI生成

  “生成式人工智能的多模态能力持续优化,大幅降低了创作门槛。”郭苏敏表示。

  郭苏敏认为,从产业和技术视角来看,Seedance 2.0是AI视频生成领域的重大突破,也是AI视频生成的里程碑时刻,其采用双分支扩散变换器架构,实现了多工种的整合,大幅降低视频生产周期,实现视频创作范式变革。

  影视行业将是深受影响的行业之一。郭苏敏表示,短期来看,Seedance 2.0将驱动影视行业深度变革,加速释放技术的价值红利。长远来看,生成式人工智能技术或推动AI生成视频向长视频叙事演进,与智能体、数字人等技术实现深度整合,推动影视业形成创意引领、技术赋能的新生态。

  同时,郭苏敏强调,随着AI生成的视频越来越逼真,人工智能数据安全、算法偏见、模型幻觉、情感依赖、数据污染等问题也在不断放大。例如,AI生成的视频可能被利用于生成虚假信息实施金融诈骗,造成人格侵权、虚假信息泛滥、诈骗与财产损失、版权侵犯等多重风险,对个人、社会造成负面影响。

  面对AI生成真人视频的乱象,部分AI生成视频模型曾尝试推出限制措施。今年2月9日,Seedance 2.0宣布暂停真人素材参考功能。然而,一些AI生成的真人视频仍在网上广泛传播,多位明星曾控诉AI视频给自己带来的负面影响。

  面对新技术带来的治理挑战,郭苏敏认为,产业需要走体系化治理路线,配套检测与溯源机制,将安全合规理念贯穿研发、部署、应用的全流程,实现穿透式治理。

  一是加强生成内容的源头治理,训练数据是视频生成的原料,更逼真的视频生成往往需要更高质量的数据,也易造成版权侵权等挑战,需加强对训练数据的合规审查与清洗。模型研发必须内置风险控制能力,包括内容合规校验、身份核验、敏感场景拦截。同时,落实《人工智能生成合成内容标识办法》《网络安全技术 人工智能生成合成内容标识方法》要求,推动数字水印、隐水印、内容溯源成为生成模型的标配能力,从源头实现可追溯。

  二是推动分类分级的风险管控。根据模型生成能力实行分层级的权限管控,例如,具有高逼真生成能力的模型不宜向无资质主体开放接口,应加强权限管控与审计监督。

  中国信通院围绕风险管理打造“人工智能治理公共产品”,发布《人工智能 安全治理 系统风险管理能力要求》行业标准,根据数据、模型算法、网络、应用进行风险分类,围绕应用对个人、组织、社会、国家的影响进行风险分级并判定隐患等级,提出风险应对、动态跟踪与持续改进的实施方法,将治理体系扎实嵌入运营流程,旨在为企业提供敏捷治理方案。

  三是打造“技管结合”的治理架构。更逼真的视频生成能力要求更加严格的内容审核机制,也要求对用户行为进行更规范的引导。

  中国信通院《人工智能安全治理研究报告(2025年)》在吸收产业实践的基础上,提出“两横三纵”的人工智能安全治理产业实践框架,深度融合“管理层”的制度牵引作用与“技术层”的能力支撑作用,构建“开发侧”“部署侧”与“应用侧”安全关,实现从模型研发、系统部署到场景应用的全链条防护。

  四是推动AI生成模型安全测试,构建针对AI视频生成的安全评测集,推动多模态领域的人工智能安全基准测试(AI Safety Benchmark),加强对生成音频、视频的评估测试,形成良性治理循环。(完)

🕐