在6月5日召开的2025全球数字经济大会数字安全主论坛暨2025北京网络安全大会上,灵御人工智能大模型安全攻防评估平台发布。该平台在现有研究基础上实现了重要突破,将为构建安全可控的人工智能生态提供重要保障。
当前,在人工智能大语言模型领域的安全攻防中,“越狱攻击”会通过精心设计的提示词,绕过安全约束并引发有害、偏见或不道德输出的对抗性攻击,这已成为大语言模型安全领域的系统性风险和严峻挑战。此次,由北京前瞻人工智能安全与治理研究院、人工智能安全与超级对齐北京市重点实验室、中国科学院自动化研究所人工智能伦理与治理中心联合团队发布的灵御大模型安全攻防评估平台,创新性地采用多智能体系统建模方法,能对“越狱攻击”进行系统性评估。
灵御平台将大语言模型越狱安全的概念,转化为多智能体系统。系统中,攻击者、防御者、目标模型和安全判断器相互作用,共包含了19种攻击算法、12种防御机制和多种判断策略,已对49个开源和闭源大语言模型安全性进行了系统化评估。
研究发现,近期发布的国内外能力更强大的人工智能模型,在安全性上却未展现出显著优势,甚至一些模型在某些安全指标上还低于早期版本。“现在,国内外没有一个绝对安全的人工智能大模型,但通过灵御平台这样的人工智能安全护栏加固,每个大模型都可以变得更安全。”北京前瞻人工智能安全与治理研究院院长、人工智能安全与超级对齐北京市重点实验室主任曾毅说。
当前,我国的人工智能大模型安全性方面总体处于中等水平。“人工智能安全与模型能力可以兼得,没有安全治理框架的人工智能不仅是没有‘刹车’,更是没有‘方向盘’。”曾毅表示,大模型安全性能的提升需要专门的优化投入,而不是模型能力提高的自然副产品。安全与治理是人工智能的核心能力,将加速人工智能稳健发展与应用。
目前,该平台的核心框架已开源开放,研究团队发布了完整的代码、配置和评估结果,以支持大语言模型安全领域的透明和可重现研究。曾毅期待,这种开放的态度能为学术界的进一步研究和产业界的实际应用提供便利。
来源:北京日报客户端
记者:刘苏雅