2024年01月08日
第A3版:热点

人工智能伦理治理引关注

  ▶ 本报记者  李洋

  在近日举办的2024中国信通院ICT深度观察报告会科技伦理治理分论坛上,来自产业界和学术界的专家指出,当前人工智能、元宇宙、脑机接口等前沿技术快速发展和应用,正深刻改变着人类社会生产生活方式。人类正在进入一个人机物三元融合的万物互联智能互联时代,其为人类社会带来福祉的同时,也伴随着伦理风险的挑战。

  会上,中国信通院发布的《人工智能伦理治理研究报告(2023年)》进一步指出,人工智能技术的发展和应用带来了新的主体“人工智能体”,即能在一定条件下模拟人类进行自主决策且与人和环境开展交互的技术体。大语言模型的发展,使得关注和应对“人工智能体”带来的伦理问题变得更加迫切。

  伦理治理问题日渐迫切

  《研究报告》明确,人工智能伦理包含价值目标与行为要求两个方面。在价值目标上,人工智能伦理要求人工智能各阶段活动以增进人类福祉、尊重生命权利、坚持公平公正、尊重隐私等为目标;在行为要求上,人工智能伦理要求人工智能技术做到安全可控、透明可解释,在人工智能研发应用各环节强化人类责任担当,提倡鼓励多方参与和合作。

  《研究报告》指出,使用大模型生成内容具有三大突出伦理风险。

  一是误用滥用风险。生成式人工智能技术应用普及快、使用门槛低,可能成为制作深度伪造内容、恶意代码等的技术工具,引发虚假信息大量传播以及网络安全问题。二是数据泄露与隐私侵犯风险。生成式人工智能使用的训练数据集可能包含个人信息,继而被诱导输出有关信息。同时,用户在使用过程中上传的个人信息、企业商业秘密、重要代码等都有可能成为生成式人工智能训练的素材,进而产生被泄露的风险。三是对知识产权制度带来挑战。生成式人工智能技术对知识产权体系造成了冲击。在训练数据的使用上,哪些数据能用于模型训练还存在争议,在生成内容的权利归属上,人工智能技术是否仅能发挥工具作用还有探讨空间。

  需主动防御深度伪造带来的挑战

  会上,不少来自高校、企业界的代表表示,对于技术和立法的发展以前是以年为单位,近两三年则是以月为单位,而2023年以来世界各国监管部门、国际多边组织的动作频频,更是以周为单位。

  北京航空航天大学人工智能研究院教授吴文峻说:“生成式人工智能强大的基座模型正在开启走向通用人工智能的新时代。”

  “模型规模的巨量增加,使得黑箱本质的深度神经网络变得更加难以解释。同时由于大语言模型吸取了海量的数据信息,其中有相当多的是敏感数据,使得隐私的保护、版权的保护等变得非常复杂。”吴文峻说。他提出生成式人工智能的强大能力已经到了真假难辨的程度,被动式的内容检测分类难以应对深度伪造的挑战,需要主动防御,引入针对AI内容的可靠水印机制以支持溯源。

  商汤科技人工智能伦理与治理研究主任胡正坤则表示,当前的人工智能已经进入到了一个新的生产范式。“在人工智能2.0时代,大模型的通用性和开放性带来了前所未有的机遇,但同时也导致了各种风险挑战具有不可预见性。如何客观、全面地评估一个模型的性能和能力,是目前业界面临的一个比较大的挑战。”胡正坤说。

  “这些挑战不仅来自于安全风险的评估,还包括高质量训练数据的获取、算力的提升以及模型能力的增强。”胡正坤说。据悉,商汤科技2021年提出了“平衡发展”的人工智能伦理观,同时明确了“可持续发展、以人为本、技术可控”的伦理原则。

  北京大学法学院教授张平表示,生成式人工智能产品面临的核心问题是数据使用的合法性问题。面对复杂的大数据样本,生成式人工智能技术的研发者应当秉承守正创新,不主动侵犯他人知识产权和隐私权,尽到基本的注意义务。对人工智能的监管应当是规范与促进并行,以事前的自律守正、事后的公正处罚为规制基础。

  坚持促进创新与防范风险相结合

  我国人工智能伦理治理历经发展规划的认可、伦理原则的确立和伦理规范的细化等步骤。2023年4月,工业和信息化部正式成立工业和信息化部科技伦理委员会、工业和信息化领域科技伦理专家委员会,从制度规范、审查监督、决策咨询、宣传教育等方面提升伦理治理能力。

  此次发布的《研究报告》对人工智能伦理治理进行了展望,提出人工智能伦理治理需要关注产业科技创新活动与伦理风险防范协调发展,坚持促进创新与防范风险相统一,鼓励人工智能基础技术创新和突破。

  具体看,一是健全多学科多主体合作的治理体系,形成多学科共建的人工智能治理合力。人工智能伦理治理是监管主体、创新主体、公众和其他利益相关方面协同合作的多元治理。人工智能创新主体需要履行科技伦理管理主体责任,建立科技伦理日常管理机制,及时化解新技术带来的风险,将人工智能伦理风险在源头予以防范。

  二是探索建立分类分级伦理治理机制。对于基本不具有伦理影响的人工智能技术应用,简化监管程序,鼓励技术创新和发展;对于具有一定伦理影响的人工智能技术,探索设定伦理要求,建立风险评估机制,明确责任;对于具有长期且广泛影响的人工智能高风险应用领域,加大监管力度,通过多种监管手段防范伦理风险;对于具有不可接受伦理影响的人工智能应用,考虑禁止部署。

  三是推动人工智能伦理治理技术化、工程化、标准化。将人工智能伦理原则转化为工程问题,用技术工具推动伦理原则落地,以人工智能技术应对人工智能风险。积极发展人工智能产品伦理风险评估监测工具,研制人工智能伦理治理有关标准,形成人工智能伦理治理经验示范。

  “敏捷治理是科技伦理治理的重要原则之一,有利于快速灵活应对科技创新带来的伦理挑战。接下来,应该进一步鼓励调动多方主体广泛参与,加强科技伦理治理的国际合作,鼓励产学研各界代表积极开展国际对话,增进国际治理理念与规则的互认。”专家说。

2024-01-08 1 1 高新科技导报 content_53007.html 1 人工智能伦理治理引关注 /enpproperty-->