人工智能在带来发展机遇的同时,也引发了跨领域、多层次的系统性治理挑战。全球人工智能安全谁来监管如何防范?
11月8日,《为人类共同福祉构建全球人工智能安全与治理体系》报告(以下简称《报告》)在2025年世界互联网大会乌镇峰会人工智能技术创新与治理论坛上正式发布。《报告》指出,人工智能技术发展迅猛,其安全与治理体系呈现出碎片化态势,国际社会亟需构建具有广泛共识的治理框架与标准。
世界互联网大会人工智能专委会主任委员及安全与治理推进计划联合牵头人、中国科学院自动化研究所人工智能伦理与治理中心主任、北京前瞻人工智能安全与治理研究院院长曾毅,专委会安全与治理推进计划联合牵头人、剑桥大学教授及智能未来中心人工智能未来与责任项目主任肖恩·欧·海格缇(Seán Ó hÉigeartaigh)共同介绍了此项联合研究成果的形成过程及主要内容。
《报告》系统性地证实了专家们的担忧。它指出,2019至2024年间,全球记录在案的人工智能风险事件由约400件跃升至7900余件,总量增长了近20倍。其中,涉及鲁棒性与数字安全、人权与隐私治理、透明度与问责制等问题的事件占比超过60%,显示技术安全性与伦理性议题已成为全球性挑战。
《报告》回顾了联合国、各国政府、区域组织及产业界在人工智能治理上的积极努力。联合国通过成立咨询机构、通过联大决议等方式,推动全球治理议程;欧盟颁布《人工智能法案》,建成全球首部全面监管法律框架;中国发布《全球人工智能治理倡议》等文件,倡导发展和安全并重的原则。产业界和学术界也在积极探索自律机制,如Anthropic的“负责任扩展政策”和OpenAI的“应对准备框架”,旨在确保人工智能系统的安全部署。
《报告》指出,当前在人工智能治理上仍存在结构性局限,如治理规则更新速度慢于技术迭代、工具上不完善,技术支撑有限、跨境协作机制薄弱、责任归属模糊等。
《报告》强调,构建全球人工智能安全与治理体系需着力应对四大关键问题。第一,针对技术快速迭代与不确定性风险,报告建议建立技术跟踪与风险预警协同机制,推动治理规则实现动态更新。第二,在平衡各国发展诉求方面,呼吁构建包容性多边平台,以保障各国平等发展和利用人工智能的权利。第三,为明确多利益相关方的权责边界,报告提出建立履约审查、风险监测与争端调解机制,从而形成协同有序的治理格局。第四,面对地缘政治障碍,报告倡导以联合国为中心践行多边主义,推动共建人类命运共同体。另外,《报告》还借鉴了核安全、气候变化等领域的全球治理经验,提出具体机制举措。
《报告》最后建议,形成应对人工智能技术失控风险共识,建立全球广泛参与的前沿人工智能模型检测与能力评估机制。此外呼吁国际社会凝聚“以人为本、智能向善”的共识,在联合国框架下整合资源,建立分级分类对话机制。联合国系统应发挥协调作用,推动价值共识、技术规范与风险治理的多维整合。
曾毅表示,当前人工智能安全与治理的国际合作已成为重要的全球公共议题。面对技术的快速演进和各国发展的不平衡,国际社会需凝聚共同的风险认知,建立一致的行动框架,并通过机制的设计与完善,确保人工智能技术在安全、可控、包容的轨道上发展。