2026年04月13日
第A2版:要闻

人工智能科技伦理审查新规发布

  本报讯  (记者 于大勇)  近日,工业和信息化部、国家发展改革委、教育部、科技部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),提出建立和完善人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。

  为规范人工智能科技活动伦理治理,《办法》提出,开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等6个方面,包括人工智能科技活动是否具有科学价值、社会价值;训练数据的选择标准,算法、模型、系统的设计是否合理;是否合理披露算法、模型、系统的用途、运行逻辑等信息;是否采取充分措施确保隐私数据得到有效保护等。

  工业和信息化部科技司相关负责人表示,人工智能科技伦理治理是人工智能治理的重要组成部分,加强人工智能科技伦理治理,是坚守科技向善、筑牢科技安全底线、保障产业高质量发展的必然要求。在此背景下,《办法》出台,既是对科技伦理治理要求的具体落地,也是推动人工智能产业创新发展、促进负责任创新的现实需要。

  该负责人介绍说,《办法》围绕标准建设、促进服务、鼓励创新、宣传教育、人才培养5个方面制定举措,精准破解当前人工智能企业伦理治理中存在的技术手段不足、标准规范不完善、治理工具匮乏等问题。

  《办法》鼓励高校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准制定,凝聚行业共识,完善标准体系;推进人工智能科技伦理服务体系建设,强化风险监测预警、检测评估、认证、咨询等服务供给,加大对中小微企业人工智能科技伦理审查的支持和服务力度,降低企业合规成本;支持人工智能科技伦理审查技术创新,鼓励企业运用技术手段防范伦理风险;加强人工智能科技伦理宣传教育,提升公众伦理意识和素养;推动职业体系和课程体系建设,采取多种方式培养人工智能科技伦理人才。

2026-04-13 6 6 中国高新技术产业导报 content_167160.html 1 <p>人工智能科技伦理审查新规发布</p> /enpproperty-->