▶ 陈兵
“AI换脸”诈骗案频发、虚假新闻视频泛滥……随着人工智能(AI)技术深度应用,如何辨别真假已成为全社会面临的严峻挑战。由国家网信办等部门发布并于2025年9月1日起施行的《人工智能生成合成内容标识办法》(以下简称《办法》),正是国家为守住真实这一底线推出的重要举措,通过强制标识制度为AI内容加上“防伪码”,构建技术治理的新范式。同时,中央网信办同步开展“清朗・整治AI技术滥用”专项行动,强化源头治理与平台鉴伪能力。
当下,AI内容最大的特点是其高度的仿真性,无论是文字、图片还是视频,都很难被普通民众甚至专业人士轻易分辨。这种仿真性,使得AI技术一旦被滥用就会引发诸多法律问题。例如,利用AI技术制作并发布谣言、不实信息、色情低俗内容,甚至从事诈骗等违法犯罪活动。这些行为不仅损害了公众的合法权益,也严重扰乱了社会秩序。因此,专门立法对AI内容进行显式或隐式标识的强制规定,显得尤为必要。
显式标识的作用主要体现在3个方面。首先,显式标识能够赋予内容受众区分AI生成内容与人类创作内容的能力,从而保障公众的知情权。其次,显式标识有助于压实相关主体责任,防范虚假信息的传播,营造一个清朗的网络空间。最后,显式标识能够提升人工智能技术的透明度与可信度,确保人工智能技术在高质量发展的同时,实现高水平的安全保障。
从技术角度看,隐式标识要求嵌入元数据或数字水印。然而,当前的技术还存在一定的局限性。一方面,许多工具已经具备去除数字水印的能力,这使得隐式标识的可靠性受到挑战。另一方面,数字水印等技术存在差异与多平台兼容问题,需要进一步统一标准。因此,技术的不断迭代升级,提升对篡改、伪造行为的识别应对能力,是当前亟待解决的问题。
《办法》第十条禁止用户恶意删除标识,但第九条也允许在特殊场景下不添加显式标识。然而,这两条规定并不冲突。第九条主要是针对显式标识的内容,对于部分创作活动而言,不添加显式标识也是必要的。显式标识的主要作用是为用户提供直观的提示标识,方便用户甄别AI内容,避免被欺骗。对于部分创作内容,如果已经明确相关责任义务且不损害公共利益,不进行标注可以在一定程度上提高作者的积极性。需要明确的是,清晰的规则是对创作自由最好的保护,让低风险的创作更便捷,让高风险的行为付出更高代价。
在传播平台责任方面,第六条要求传播平台核验标识,但未明确技术检测义务的边界。面对当前互联网中较多的AI内容,要求传播平台承担未识别AI内容的责任并不现实。从技术层面看,精准识别AI内容也并非易事。对于尽到核验义务并且已经进行了提醒义务的传播平台,很难再追究相关责任。然而,需要注意AI内容的分类分级处置。对于那些具有舆论动员能力,涉及重大政治、经济、社会事件的AI内容,平台应当承担更多的信息过滤和审核义务,并对此课以相应责任。这一点在《个人信息保护法》和《反不正当竞争法》中也有相应的规定。
需要注意的是,《办法》第十三条规定了多部门联合执法。未来可能出现的新型诉讼类型包括涉及AI内容著作权的诉讼等。然而,标识缺失很难直接推定平台过错。因为标识的前提是需要识别出这些内容属于AI生成,对于现有技术无法识别出、传播平台未能提醒的情况也不可避免。因此,是否能推定平台承担责任,还需要结合具体情况来认定。