近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能科技伦理审查与服务工作提供了明确指引。
《办法》明确,开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等6个方面,包括人工智能科技活动是否具有科学价值、社会价值;训练数据的选择标准,算法、模型、系统的设计是否合理;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息;是否采取充分措施确保隐私数据得到有效保护等。
《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出规定,并结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求,有效规范人工智能科技活动伦理治理。
为推进人工智能科技伦理服务体系建设,《办法》从标准建设、服务体系、鼓励创新、宣传教育、人才培养五个方面制定支持举措,帮助企业切实提升科技伦理风险防控能力。
《办法》坚持促进创新与防范风险相统一,通过制定人工智能科技伦理审查规则,提升人工智能伦理治理能力,确保人工智能负责任创新,为我国人工智能产业高质量发展提供有力支撑。
附件:
需要开展科技伦理专家复核的人工智能科技活动清单
一、对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发。
二、具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发。
三、面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。
本清单将根据工作需要动态调整。
下一篇:没有了