🌮学者专家福州共话“从可靠数据到可信AI”✋

发布时间:2026-04-30 22:52:16 来源: 发展网

  

  中新网福州4月30日电 (彭莉芳)当算力基础设施厚积成势、大模型百模竞进,如何让AI风险可控、价值可信?对此,在30日于福州举行的第九届数字中国建设峰会“从可靠数据到可信AI”主题交流活动上,高校学者与产业专家从数据基建、政务应用、安全防护等维度,分享了自己的思考。

4月30日,作为第九届数字中国建设峰会的重要活动之一,“从可靠数据到可信AI”主题交流活动在福州举行。中国信息协会 供图

  “数据智能本质是数据驱动的概率统计,不具备人类认知与推理能力。”北京大学教授梅宏指出,数据的数量与质量决定了模型能力的上限,当前大语言模型发展面临训练语料枯竭、模型自噬紊乱等挑战,构建高质量数据集、完善数据基础设施,是实现可信AI的关键支撑。

  北京交通大学教授张向宏表示,通过数据工厂实现高质量数据集的稳定供给,能让大模型与智能体真正落地行业、创造价值,推动数据要素与人工智能深度共振。

  政务大模型是人工智能赋能千行百业的重要应用领域,其普及应用正成为提升政府治理能力的创新路径。清华大学教授、清华大学计算社会科学与国家治理实验室执行主任孟庆国指出,政务大模型的应用仍存在诸多潜在的风险,如语料数据层面的偏见与污染、模型生成层面的“幻觉”问题,及应用层面可能引发的政务服务偏差。

  孟庆国表示,需构建覆盖数据、模型、应用全链路的政务大模型内容安全治理体系,实现模型价值取向与政府服务价值观的“对齐”,发挥政务大模型提升政府治理效能、优化公共服务的作用。

  安恒信息首席技术官刘博表示,数据合规是门槛,通过基础设施让高质量数据“出得来”、通过动态安全体系让数据“流得稳”,才能真正激活埋藏在水面之下的高质量数据集,释放其作为AI燃料的潜能。

  算力安全同样不可或缺。海光信息科技股份有限公司副总裁应志伟指出,传统安全软件在AI大模型时代,无法抵御AI降维攻击与底层硬件风险;底层算力安全已成行业底线,把安全能力刻进芯片,才能筑牢AI时代的可信根基。(完)

⛳️