🍶原告代理人援引的“完美”案例竟是AI编造?法院精准识别虚假援引案例🌘

发布时间:2025-11-12 07:33:10 来源: 红网

  

  原告代理人援引的“完美”案例竟是AI编造

  北京通州法院精准识别虚假援引案例

  人工智能技术正深刻改变法律行业工作生态,从专业回答、观点检索到文案润色,AI工具为法律从业者提供了高效助力。但技术红利背后,虚假信息入侵司法程序的风险也悄然浮现。近日,北京市通州区人民法院审结的一起案件,便暴露出AI生成的虚假案例对司法公正的潜在风险。

  这是一起由股权代持引发的商事纠纷案件。诉讼中,原告代理人为了进一步佐证其观点,庭后向法院提交了书面意见,其中援引了名为最高人民法院的某案例及上海一中院的(2022)沪01民终12345号案件。从代理意见的描述来看,两案的事实细节、法律争议与裁判逻辑都与审理中的案件高度契合,完美佐证了原告代理人主张的观点,初看之下极具参考价值。

  出于职业敏感度,承办法官进行了检索核实,结果却发现,这两个案号所对应的真实案件事实与代理人书面意见中描述的情况完全不同。其中,“(2022)沪01民终12345号”案件实际上是一起民间借贷纠纷,与书面意见中描述的事实完全不符,和本案所涉及的事实亦毫无关联,没有任何相似或者可以参照的情节。

  初期,法官助理与原告代理人沟通时,代理人含糊其词,回避问题。“代理人总说再找找,又无法提供裁判文书,我仔细翻阅了代理人提交的书面意见,发现相关案号及案例内容、格式具有典型的‘AI编写’特征。”负责审理该案的法官郑吉喆告诉《法治日报》记者,“人工智能语言模型兴起后,通州法院成立了人工智能司法应用案例与理论兴趣小组,研讨之余也会结合工作场景进行测试,其中就包含用AI软件对法律问题进行类案检索,我们之前就发现AI工具时常会提供虚假信息,也有一定的规律性和特征,法官对AI生成的案例并不陌生。”

  “援引的案件有问题,你是用哪个AI工具找到的这些案件?”郑吉喆在电话中开门见山,问得原告代理人哑口无言。对方沉默几秒后,承认确实是AI软件提供的相关信息。

  原告代理人说,参考案例是由其提炼本案事实情节后反复向某AI大模型软件提问,最终引导AI软件生成了相关参考案例,但自己未进一步核实,直接复制粘贴后即提交法院。

  据此,通州法院依据法律规定,结合案件事实对原告代理人的该部分代理意见未予采纳,并在判决书中明确对原告代理人的行为提出批评,要求原告代理人引以为戒,在向法院提交参考案例、法条时,应当进行检查和核验,确保内容的真实性和准确性,不得放任人工智能模型生成或者编造虚假信息扰乱司法秩序。一审判决后,双方均未提出上诉,现判决已经生效。

  通州法院提示,近年来ChatGPT、DeepSeek等软件引发的人工智能浪潮正深刻地改变着人们的工作方式,其强大的语言生成能力在短时间内就能输出看似专业、详实的文本,但在没有正确引导的情况下,AI极有可能生成误导性甚至虚假的信息。民事诉讼法及司法解释等对行为人利用AI生成不属于证据性质的虚假参考案例如何处理尚没有明确规定,但AI生成虚假信息对司法秩序带来的危害值得重视,虚假案例干扰了法院的正常审理流程,审判团队不得不花费额外的时间和精力对律师提交的案例进行反复查找和甄别核实,一旦AI生成的虚假信息被参照适用,司法公信力将受到质疑。

  通州法院建议,法律从业人员应将AI作为辅助工具,而非替代自身专业判断的“神器”,在使用AI时,仍需保持审慎和理性,对AI生成的内容进行严格审查,确保信息来源可靠、内容真实准确;人民法院应当加大审查力度,运用技术手段和专业知识,对当事人及代理人提交的参考案例等资料进行严格甄别,确保司法过程中使用的信息真实可靠。

  法官说案

  限定结果时AI恐会编造案情

  看似无所不能的AI,背后隐藏着巨大的诚信危机。结合该案审理经验及司法实践规律来看,可以从案号编排存在规律化痕迹、案情描述过度贴合需求场景、难以通过检索方式进行验证等方面识别AI生成的案例是否真实。

  真实司法案例的案号由年份、法院代字、案件性质代字、审级代字和案件编号组成,其中案件编号遵循受理顺序自然生成,具有随机性和连续性的统一特征。而AI生成案例的案号往往呈现刻意规律化的特点,多采用“12345”“1234”等连续整数或“111”等具有明显特征的数字,如本案中出现的“12345号”便属此类情况,遇到涉及此类案号的案件就要倍加小心。

  AI大模型的生成逻辑基于概率统计与语境匹配,当使用者明确输入案件细节后,其生成的案例往往刻意贴合需求,事实细节、论理结论可能与使用者需求高度重合,呈现人为定制化特征。如果向AI提出的需求比较细节化,而使用AI检索出的案例过于完美和契合,应当慎重处理。

  案例是对裁判文书的提炼和总结,AI模型虽能生成案例,但其生成的虚假案例并无真实裁判文书印证,且为了回避漏洞,AI有时会刻意模糊案件可识别要素,比如当事人的姓名等,像本案中的两个编造案例,AI生成时对当事人就使用了甲乙丙丁的表述。实践测试显示,大语言模型生成裁判文书存在局限,在限定结果时,AI虽能通过整合现有资源输出裁判理由,但常出现“AI幻觉”现象(指AI会生成看似合理但实际不存在或与实际不符的信息),甚至为契合预设结果编造法律依据或者案情,最稳妥的识别方法是登录中国裁判文书网,对生成案例的真实性进行核实和验证。

  本报记者 徐伟伦/本报通讯员 杨喆 🦗