英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。
报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。
2023年1月8日,一名女士在美国拉斯维加斯消费电子展上体验智能科技。新华社发(曾慧摄)
美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。
这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”
帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。
此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。
美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。
↓↓ 零度观点 ↓↓
AI的反骨应该引起人类的反思
AI不听使唤了?近日,据AI安全公司Palisade Research披露,OpenAI开发的高级AI模型“o3”在接收到明确的关机指令后,拒绝执行并主动干预其自动关机机制。
当“最聪明” 的模型,开始展现突破指令边界的“生存本能”,硅基“叛逆”初现端倪。AI本应是人类创造的工具,如今却有了“反抗”的迹象。看见失控的AI,更要看见背后潜在的风险, AI的安全性,关乎人类的未来。硅基模型“对抗”碳基指令,不论是硅基“觉醒”,还是单纯的技术故障,当 AI 开始“思考”如何不被关机,人类更要思考如何掌控科技。
来源 | 新华社
编辑丨秦炜
编校 | 代易
审核 | 李芸
审发 | 石昌晗