国家安全机关发布智能设备安全使用指南 筑牢数字时代安全防线

当代社会正经历一场深刻的智能化变革。

从教师利用智能工具大幅提升备课效率,到老年人通过智能音箱获得陪伴和健康提醒,再到提示词工程师等新职业应运而生,人工智能大模型正以前所未有的速度融入经济社会各领域。

这一技术进步无疑为人们的工作和生活带来了便利,但随之而来的安全隐患也日益凸显。

国家安全机关在工作中发现,当前智能设备和大模型应用中存在三类突出风险,亟需引起广泛重视。

其一是数据隐私保护边界模糊。

一些单位在部署智能系统时,直接采用开源框架建立联网大模型,却未采取充分的安全隔离措施。

现实中已出现工作人员违规使用开源AI工具处理内部文件,因电脑系统默认开启公网访问且缺少密码保护,导致敏感资料被境外IP非法访问和下载的案例。

这类事件表明,看似便捷的智能工具一旦配置不当,就可能成为数据泄露的"缺口",危害组织和个人的信息安全。

其二是技术滥用引发虚假信息风险。

深度伪造技术利用人工智能的深度学习算法,能够以假乱真地生成虚假的图片、音频和视频内容。

国家安全机关已发现某些境外反华敌对势力利用这一技术生成虚假视频,企图在境内传播以误导舆论、制造社会恐慌,对国家安全构成直接威胁。

这说明AI技术的双刃剑属性日益明显,防范技术被恶意利用已成为维护信息安全和社会稳定的重要课题。

其三是算法偏见导致决策风险。

人工智能的判断能力受其训练数据的深刻影响。

若训练数据本身存在社会偏见或代表性不足,大模型就可能无意中放大这些偏见。

有研究发现,某些AI系统在处理历史、政治等敏感话题时,存在明显的西方视角倾向,用英文提问时会刻意回避或淡化某些历史事实,甚至提供包含错误信息的内容,而中文回复相对更加客观。

这种算法偏见虽然看似技术问题,实则涉及意识形态安全和舆论引导。

针对上述风险,国家安全机关提出了"数字伙伴"的三条安全守则。

第一条守则是划定智能设备的"活动范围",核心理念是实现权限最小化。

用户在使用智能设备和大模型工具时,应当严格限制其访问权限,做到联网AI不处理涉密数据、语音助手不收集环境音频、智能工具不保存支付密码等。

同时应主动关闭不必要的功能权限,如数据共享、云空间同步等,从源头上减少信息泄露的风险通道。

第二条守则是定期检查"数字足迹",强调主动的防护意识。

用户应养成良好习惯,定期清理AI聊天记录、定期修改账户密码、及时更新防病毒软件、定期查看账号登录设备等。

此外,应避免随意下载使用来源不明的大模型程序,对任何要求提供身份证号、银行账户或其他敏感信息的请求保持高度警惕,防范钓鱼欺诈和信息窃取。

第三条守则是优化"人机协作"方式,体现了科学使用AI的理性态度。

向AI提问时,用户应在提示词中明确禁止AI进行过度推演,要求其显示信息来源或推理过程,对重要信息进行跨平台交叉验证。

特别是在涉及政治、历史、意识形态等敏感领域时,用户必须保持独立思考意识,辩证看待AI的回答,避免被"AI幻觉"现象误导。

国家安全机关强调,安全是发展的前提,发展是安全的保障。

只有懂科技、安全使用科技,才能让人工智能这一新兴科技成为推动社会进步的正能量。

广大用户应当提高安全意识,审慎授权大模型软件的各项权限。

如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339国家安全机关举报受理电话、网络举报平台或国家安全部微信公众号等渠道进行举报。

技术进步带来新机遇,也会提出新考题。

把握智能化浪潮,既要拥抱效率与便利,更要守住数据与认知的安全底线。

每一次谨慎授权、每一次及时清理、每一次认真核验,都是对个人权益的保护,也是对社会秩序与国家安全的守护。

发现相关危害线索,可通过12339举报受理电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号等渠道,或向当地国家安全机关反映,共同筑牢安全防线。