发布时间:2026-04-12 21:56:04 来源: 封面新闻
平时我们刷手机遇到的AI陪伴助手、虚拟情感好友,甚至给老人孩子提供陪伴的智能互动产品,今后将有明确的“行为规范”了。今年7月15日,《人工智能拟人化互动服务管理暂行办法》将正式施行。那什么是“人工智能拟人化互动服务”呢?
《办法》规定的“人工智能拟人化互动服务”是指,利用人工智能技术,向中华人民共和国境内公众提供的、模拟自然人人格特征、思维模式和沟通风格,且能开展持续性情感互动的服务。
而智能客服、知识问答、工作助手等不涉及持续性情感互动的服务,不属于此类拟人化互动服务,不适用该办法监管。
中国政法大学网络法学研究所所长 李怀胜:这类服务通过模拟人类情感和沟通方式,很容易让用户产生非理性的依赖,削弱现实的社交能力,甚至可能被用于情感操控或者说诱导危险行为。因此为了填补监管空白,防范化解这类潜在风险,同时也是为了响应国家关于完善人工智能治理体系的战略部署,出台针对性的管理规范。
严禁向未成年人提供虚拟伴侣等服务
《人工智能拟人化互动服务管理暂行办法》还聚焦未成年人保护,从服务限制、身份识别到监护管控,给出了解决方案。
针对未成年人保护,《办法》作出明确规定:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意;要求建立未成年人模式,支持监护人管控使用行为、限制充值消费等。
北京航空航天大学法学院副教授 赵精武:禁止向未成年人提供虚拟亲属、虚拟伴侣的服务,主要考虑的是未成年人正处于三观形成和培育阶段,虚拟亲密关系服务容易误导未成年人对现实生活当中的亲属和伴侣关系产生一些错误的认识。还需要结合未成年人的年龄段,设置针对不同特定年龄段层次化的未成年人的保护措施和内容,一旦未成年人在使用过程中出现极端性情绪,应当提供相应的援助这些必要的措施,并及时联络用户的监护人或者紧急联系人。
全面保障用户数据的控制权与隐私安全
针对人工智能拟人化互动“情感绑定、持续交互、易产生依赖”的特殊属性,《办法》从制度层面,填补了相关领域的治理空白。
在用户数据保护上,《办法》明确除法定情形或用户同意外,服务提供者不得向第三方提供用户交互数据,严格限制敏感个人信息用于模型训练,全面保障用户数据的控制权与隐私安全。
同时,要求服务提供者设定强制干预义务,包括用户如果出现极端情绪时需及时干预,另外需提醒用户控制使用时长,防范沉迷与情感依赖。
中国政法大学网络法学研究所所长 李怀胜:这些规定大大提升了用户隐私的保护力度,意味着企业不能随意将用户在聊天中透露出的敏感信息,比如说健康状况等,直接用于优化其大模型的训练。此外,《办法》还规定,提供者不得向第三方提供用户交互数据,除非有法律或者用户的明确同意,并需要向用户提供交互数据的复制删除等选项,这也是为了保障用户对其个人信息的控制权。
新规施行在即
相关企业要加快合规准备
《人工智能拟人化互动服务管理暂行办法》将于今年7月15日施行,相关企业也要加快合规准备,以促进行业步入“安全有序、向上向善”的发展新阶段。
《办法》对人工智能拟人化互动服务提供者,明确了四项核心要求,具体可理解为:
一是开展服务属性自查,明确自身服务是否属于监管范围,杜绝不合规服务违规运营;
二是建立全流程管理制度,涵盖算法审核、伦理审查、应急处置等关键环节,规范服务运行;
三是按要求开展安全评估,依法完成算法备案、变更及注销等相关手续,保障服务安全稳定;
四是严格落实法定义务,做好数据安全保护、一老一小群体保护及用户情绪干预提醒,完善用户申诉举报机制。
北京航空航天大学法学院副教授 赵精武:AI拟人化互动服务的发展方向是文化传播和情感陪伴,在技术创新与伦理规范之间的需求需要进一步平衡,首先应该明确人类的主体地位和人格尊严保护的底线要求。任何拟人化服务的方式创新都不应当以减损现实情感交互为前提。拟人化互动服务的功能是对现有的情感交互的有益补充,而不是单纯的替代。
(央视新闻客户端) 👏