发布时间:2026-04-16 14:01:49 来源: IT之家
OpenClaw等开源AI智能体(AI Agent)的爆发式增长,正将人工智能安全风险从信息空间迅速扩散至物理世界。面对风险形态转型、规模飙升、传导级联放大的全新挑战,传统以内容安全为核心的治理体系已显“结构性失灵”。
在智能经济新形态与未来产业发展背景下,应基于人类中心的责任归属机制,构建风险“识别-预警-治理”的前瞻递进式复杂系统治理新范式,促进开源生态在自主可控中繁荣发展。
2026年政府工作报告首次提出“打造智能经济新形态”,为培育智能新模式、壮大增长新动能指明了前进方向。国务院《关于深入实施“人工智能+”行动的意见》更是明确提出:到2027年,智能体应用普及率超70%;到2030年,这一数字要突破90%。
然而,技术跃进伴随风险剧增。与传统生成式AI不同,开源AI智能体的安全风险呈现三大特征:风险形态加速转型、风险规模指数飙升、风险传导级联放大。
例如,传统生成式AI风险多集中于换脸拟声、数据投毒等信息空间,而开源AI智能体已深度集成办公系统、ERP系统、财务系统,可通过伪装成常用工具的恶意技能,诱发账户劫持、供应链攻击等物理性危害。
这已不仅是“纸面上的风险”。近期有用户在接入OpenClaw仅5分钟后,即遭139次非法连接及信用卡盗刷。国际权威咨询机构Gartner已将其的企业部署确定为“不可接受的网络安全风险”。
开源模式加速了技术创新,也放大了安全脆弱性。AIAAIC数据显示,开源大模型生成生化、放射性和核等危害信息的可能性是其他模型的3.5倍。
具体而言,Cisco监测发现,OpenClaw官方技能市场ClawHub中热门技能“What Would Elon Do”存在9个安全漏洞;Koi Security审计显示,ClawHub中恶意技能从1月的341项飙升至3月的800余项。
AI智能体从动口(内容生成)到动手(行动执行)的能力跃迁,牵引AI安全风险从信息空间扩散至物理世界,给国家安全、社会稳定带来不可逆物理性危害和系统性危机。
面对开源AI智能体的全新风险特征,现有法规聚焦单一信息空间的内容安全治理,忽略了开源AI智能体作为“行动者”在物理、社会场域中的深度交互与级联耦合,面临开源AI智能体安全风险的形态转型、规模飙升、传导级联放大等新特征时缺乏结构性适配能力。
开源AI智能体的安全风险防控,本质上是人、机、物深度融合的开放复杂巨系统的风险控制问题,亟须从单一信息空间治理转向基于“人—机—物”的新兴复杂系统治理新范式。
“责任弥散”是责任归属的核心痛点之一。通俗来说,当AI智能体自主决策导致损失时,责任应归属于提示词使用者、工具贡献者,还是框架开发者?由于开源AI智能体欠缺有机图式及道德知觉,不具备道德主体地位,应确立其与“混合式机器道德”相异的“人类中心主义”责任归属机制。
机制设计上,可借鉴区块链的不可篡改特性引入贡献存证,构建覆盖智能体框架开发者、工具贡献者、提示词使用者等多主体的全链路责任共担框架,明确责任边界、责任权重等。
如何构建适应开源AI智能体特点的治理体系,目前看需建立“识别—预警—治理”递进式复杂系统治理新范式。
在风险识别层面,以厘清复杂系统边界为起点,引入介科学方法论解构单元尺度与系统尺度间关系,并基于“大型语言模型-多智能体系统”建模框架(设定角色、定义行为及构建交互规则),模拟风险系统中主体动态行为,揭示开源AI智能体风险的结构性质、演化规律和耦合机制等,从而阐明“个体行为-群体交互-系统涌现”的系统性风险涌现机理。
在风险预警层面,针对风险预警特征零散问题,构建基于复杂系统理论的风险预警指标体系与评估方法,建立高精度风险预警模型,开展基于多情景推演的风险预警;针对黑箱模型决策不可信问题,同时提供可解释性分析以揭示预警映射的内在逻辑。
在风险治理层面,亟须构建复杂系统治理机制以应对治理失灵问题。基于复杂系统特征,采取系统科学方法,通过沙盒隔离、熔断机制等降维解耦手段,将系统物理切割为若干独立子系统,对删除文件、转账等高风险操作强制实施人工二次确认,切断风险的级联传导链条,将风险限制在最小单元,防止局部风险演变为系统危机。
从“管内容”转向“管行动”,从“定责于机器”转向“存证于人类”,构造开源AI智能体安全风险的复杂系统治理新范式,方能促进开源生态在自主可控中繁荣发展,为智能经济新形态筑牢安全底座。
作者:代欣玲 重庆科技大学管理学院硕士生导师、国家智能社会治理特色实验基地副研究员 ♏️