🍁国家安全机关提示:使用智能设备,牢记这三条守则!😭

发布时间:2025-12-26 07:32:11 来源: 未来网

  

  初中教师小李自从使用AI备课后,能在五分钟内生成一份生动有趣的教案,包括图片、视频和互动问答。“以前备课要两小时,现在可以省下更多时间关注学生个人情况,还能一对一定制专属练习题。”

  某独居老人陈爷爷,通过子女赠送的智能音箱,找到了新乐趣。“小智不仅能陪我听戏、聊天,还会在我忘记吃药时主动提醒,它居然还记住了我所有孙辈的生日。”

  29岁的小王原本是文案策划,因擅长与AI“对话”,现已成功转型为提示词工程师。“关键是要把指令说得足够清晰。”从智能客服到AI绘图师,大模型正创造着一个个前所未见的新岗位。

  当前,AI大模型加速赋能千行百业,推动人们生活日新月异,这位能干又贴心的“数字伙伴”正加速融入我们日常生活。然而每一次技术跃迁必然伴随着新的挑战,当AI的触角延伸越广、嵌入越深,随之而来也暴露出数据隐私、算法偏见等潜在风险,亟需我们构筑安全防线,助推这场深刻的智能变革,安全赋能美好未来。

  高速发展背后的“暗礁”

  ——数据隐私与安全边界模糊。个别单位因直接使用开源框架建立联网大模型,导致攻击者未经授权即可自由访问内部网络,从而引发数据泄露和安全风险。据公开案例显示,某单位工作人员在处理内部文件时,违规使用开源AI工具,由于电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载。

  ——技术滥用与虚假信息产生。利用AI的深度学习算法进行自动化的数据处理,实现图片、音频及视频的智能模拟和伪造,这种技术被称为深度伪造(Deepfake)。一旦该技术被滥用或恶意使用,将给个人合法权益、社会稳定甚至国家安全带来诸多风险和挑战。国家安全机关工作发现,某境外反华敌对势力通过深度伪造技术生成虚假视频,并企图向境内传播,以误导舆论、制造恐慌,对我国家安全构成威胁。

  ——算法偏见与决策“黑箱”。AI的判断源于其所学习的资料,若训练数据本身存在社会偏见或代表性不足等问题,大模型便可能放大歧视。测试显示,某些AI会系统性偏向西方视角。当研究人员用中英文向某同一个AI提问历史问题时,发现英文回复会刻意回避、淡化某些史实,甚至会给出包含错误历史信息的内容,引发重大歧误,而中文回复则相对客观。

  安全守则:给“数字伙伴”的三条守则

  ——守则一:划定“活动范围”。做到“权限最小化”,联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,关闭“数据共享”“云空间”等不必要的访问权限。

  ——守则二:检查“数字足迹”。养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备等习惯。同时避免随意下载使用来源不明的大模型程序,对提供身份证、银行账户或其他敏感信息的要求保持警惕。

  ——守则三:优化“人机协作”。向AI提问时,在提示词中明确禁止AI过度推演,并要求AI显示来源或思考过程,对重要信息进行跨平台验证,合理辨别AI生成结果,特别是涉及政治、历史、意识形态等话题时,要具备独立思考意识,辩证看待AI的回答,避免陷入“AI幻觉”。

  国家安全机关提示

  安全是发展的前提,发展是安全的保障。只有懂科技、安全使用科技,才能让AI大模型这一新兴科技成为推动社会进步的正能量。广大用户应当提高安全意识,审慎授权大模型软件权限。如发现AI大模型存在窃取个人信息,向境外传输敏感数据等危害网络安全的问题线索,可通过12339国家安全机关举报受理电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号举报受理渠道或者直接向当地国家安全机关进行举报。 💹