英国多个组织呼吁监管机构限制Meta利用人工智能进行风险评估
创始人
2025-06-09 17:40:55
0

6 月 9 日消息,据卫报报道,互联网安全活动人士向英国通信监管机构 Ofcom 发出呼吁,要求限制人工智能(AI)在关键风险评估中的使用。这一呼吁是在有报道称 Meta 公司(旗下拥有 Facebook、Instagram 和 WhatsApp)计划将风险评估流程自动化之后提出的。

Ofcom 表示,在上个月一份报告称 Facebook、Instagram 和 WhatsApp 的母公司高达 90% 的风险评估工作将很快由人工智能完成后,该局正在“考虑活动人士在信中提出的担忧”。

据IT之家了解,根据英国的《在线安全法案》,社交媒体平台需要评估在其平台上可能出现的伤害风险,并制定相应的缓解措施,特别是要保护儿童用户并防止非法内容的出现。风险评估流程被视为该法案的关键内容。

包括莫莉・罗斯基金会(Molly Rose Foundation)、国家防止虐待儿童协会(NSPCC)和互联网观察基金会(Internet Watch Foundation)在内的多个组织在致 Ofcom 首席执行官梅兰妮・道斯(Melanie Dawes)的信中表示,使用 AI 驱动的风险评估是一种“倒退且令人高度担忧的举措”。

这些组织在信中强调:“我们敦促您公开声明,根据法案要求的‘合适且充分’标准,完全或主要通过自动化生成的风险评估通常不应被视为符合要求。”信中还要求监管机构对平台可能试图简化风险评估流程的假设提出质疑。

Ofcom 的一位发言人表示:“我们已明确要求相关服务告知我们,谁完成了、审查了和批准了他们的风险评估。我们正在考虑这封信中提出的关切,并将在适当的时候作出回应。”

Meta 公司则回应称,这封信故意歪曲了该公司在安全方面的立场。Meta 表示,公司致力于遵守法规并保持高标准的安全措施。Meta 的发言人指出:“我们并不是使用 AI 来做出风险决策。相反,我们的专家开发了一种工具,帮助团队识别特定产品是否符合法律和政策要求。我们在人类监督下使用技术,以提高我们管理有害内容的能力,而我们的技术进步显著改善了安全结果。”

此前,美国国家公共广播电台(NPR)曾报道,Meta 计划通过 AI 系统审批其算法更新和新的安全功能,而不再由员工进行审查。一位匿名的 Meta 前高管向 NPR 表示,这种改变将使公司能够更快地推出 Facebook、Instagram 和 WhatsApp 的应用更新和新功能,但可能会给用户带来“更高的风险”,因为潜在问题在新产品发布前更难被预防。

NPR 还报道称,Meta 正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。

【来源:IT之家】

相关内容

热门资讯

2025年值得入手的2款智能手... 在科技飞速发展的今天,智能手表已成为我们生活中不可或缺的伙伴。无论是健康监测、信息提醒,还是时尚搭配...
原创 苹... 有不少朋友疑惑苹果iPhone 16 Pro和16 Pro Max有什么区别?该选择哪一款更好?各自...
第五轮学科评估对比:西安交大突... 在之前的文章中,我们已经提及西安交通大学第五轮学科评估的表现可圈可点,新晋的3个A+学科:机械工程、...
原创 2... 从去年华为用上了麒麟芯片开始,华为的市场份额就蹭蹭的往上涨,当时抢购的人特别多,一时间还买不到现货,...
steam官网无法访问?这个办... 对于广大游戏爱好者而言,Steam平台无疑是获取最新游戏资讯、购买游戏、与全球玩家互动的重要阵地。然...
解决FaceTime无法使用的... FaceTime是苹果公司推出的一款视频通话应用,广泛应用于iPhone、iPad和Mac等设备上。...
vivo手机5g开关在哪里打开 vivo手机5G开关的打开方式可能因手机型号、系统版本及运营商网络支持情况的不同而有所差异。但总体来...
2024年OPPO手机全攻略:... 手机已不仅仅是通讯工具,它更是我们记录生活、享受娱乐、提升工作效率的重要伙伴。随着科技的飞速发展,O...
原创 最... 近日,有关华为nova 13系列手机的消息开始多了起来,之前透露的消息暴露,华为nova 13 Pr...
2024信号“最可靠”的四款手... 大家好!今天我要和大家聊聊2024年信号“最可靠”的四款手机,它们分别是华为Pura 70 Pro+...