大模型私有化部署安全风险与防护策略:AI行业向好向善发展的关键挑战

admin

人工智能技术以大模型为核心,它是创新范式变革与产业升级的关键引擎。如今,越来越多的机关和企事业单位开始推进大模型私有化部署,并且在企业办公、科技研发、公共服务等领域广泛应用。然而,技术在跃升的同时,安全风险也始终在伴生演进。怎样强化模型全生命周期的安全管理,为 AI 行业的向好向善发展赋能,成为当前急需解决的课题。

需加重视的潜在风险

近期多项研究表明,近 90%私有化部署的服务器处于在互联网上“裸奔”的状态。部分模型自身容易遭受攻击,存在安全方面的漏洞。当下,个别单位所谓的“设防”仅仅是简单地设置密码,这种设置容易被突破。甚至有个别单位连防护密码都没有。可以预料到,未来随着大模型的普及使用,具有针对性的恶意手段以及风险场景必定会大量增加。因此,网络安全防护必须与技术发展同步迭代。

敏感数据存在安全问题。大模型在训练、推理以及使用的过程中会涉及大量的数据。如果用户在输入数据时没有妥善地进行存储和处理,尤其要是违规地在没有设防的模型中处理涉密数据、个人隐私数据以及商业敏感数据,那么就会存在数据被非法获取以及泄露的风险。

关键领域存在安全问题。人工智能与高科技设备紧密相关,倘若这类设备被植入后门程序,那么智能工厂、金融机构、能源设施等关键领域就会面临风险。违法犯罪分子若恶意利用大模型部署的安全漏洞来破坏相关系统,就有可能引发公共服务中断、企业遭受经济损失、安全事故频繁发生等恶性事件,从而干扰经济的正常运转和社会的有序运行。

侵犯用户利益。普通用户若未加防护而使用大模型服务工具,攻击者便能远程调用接口,窃取模型参数、训练数据、知识库等核心资产,或者删除、污染私有模型文件,致使模型失效或输出偏差。与此同时,攻击者可通过未获授权的接口调用模型推理功能,对 GPU 资源进行滥用。倘若处理的数据量过大,大模型服务器会因算力耗尽而瘫痪。

大模型安全风险的产生原因

开源框架存在一些不足之处。很多单位为了能够快速让服务上线,便直接采用开源框架,并且默认开启了不设置密码的公网访问模式,也没有配置合理的安全防护措施,还忽略了最基本的防火墙配置。这样一来,攻击者在未经授权的情况下,就可以自由地访问模型服务,窃取敏感数据,甚至通过以往的漏洞来执行恶意指令,最终导致了数据泄露和服务中断的情况发生。

部分管理者对 AI 安全的认知较为滞后,存在风险意识方面的欠缺;部分群众认为“安全是专家的事”,他们不了解部署 AI 服务需要像保护银行卡密码那样谨慎,在享受 AI 带来便利的同时,也未考虑到背后隐藏的风险。

安防教育需要进一步加强。部分企事业单位没有进行足够的安全防范教育,使得员工的国家安全意识和素养偏低,安全防范意识不够强,在对待大模型时没有做到用心管理,对安防教育也缺乏应有的认识。

我国近年来出台了多部关于人工智能和网络数据方面的政策法规及指导意见。然而,随着人工智能的迅猛发展,随之产生的法律问题还需要进一步完善相关立法,目前专门法律存在空白。

国家安全机关提示

大模型是推动科技进步的重要力量。它的安全防护一刻也不能松懈。无论是开发者,还是企业,亦或是普通用户,都应该提高警惕。大家要共同守护技术红利,不让其被恶意利用。

做好安全防护,将安全防范屏障筑牢。在开发和应用大模型的过程中,AI 企业要重视自身应承担的安全责任和义务,能够通过加强与安全厂商的联系合作,利用严密的安全技术保障以及运行监测,来强化大模型运行时的安全性、可靠性和稳定性。

培养安全意识,构建协同防御生态。单位和企业在部署大模型之前,要进行全面的风险评估以及安全规划,凭借制定安全政策、开展安全培训等手段,提升全体人员的安全意识。广大民众需增强使用大模型的安全意识,要注意学习相关安全知识,养成良好的使用习惯,应选择从官方渠道来下载大模型工具,在使用过程中不要随意去连接陌生网络,以此确保大模型应用的安全稳定。

(总台央视记者 宋琎)