▶ 本报记者 孙庆阳
GEO(生成式引擎优化),原本是帮助人工智能(AI)大模型准确找到真实信息的技术,但被滥用后就变成针对AI的恶意“投毒”。今年央视“3・15”晚会曝光了这一乱象:有人批量制造伪测评、虚构证据链,把营销软文伪装成客观知识,诱导大模型输出错误答案。这种行为会直接误导用户消费与决策,污染AI信息环境,严重破坏公众对人工智能的信任。
“投毒”背后的大模型漏洞
“从技术原理看,这次事件暴露的并不是大模型‘偶尔答错’。”中国信通院云大所人工智能卓越中心负责人连云波认为,当前不少大模型在外部信息接入链路方面缺少“真实性优先”处理架构。
北京交通大学法学院副教授、数据法学研究中心主任付新华揭示其逻辑陷阱:“当同一套虚假信息被多个账号、多个页面、多个模板重复发布后,模型可能会将这种‘人为制造的一致性’误判为真实市场反馈或社会共识。”连云波举例称,AI大模型常把多个页面中反复出现的相似说法视为“多方印证”,但这些页面却可能来自同一套营销底稿和同一分发系统,只是换了站点、账号和标题;如果系统缺少来源分析、同源内容聚类去重和可信度分层,就会把“重复传播”误判为“独立证据”。
“最终,所有问题在答案生成阶段被彻底放大。”付新华表示,这与传统搜索有着本质区别。过去,用户能看到多个信息链接,可以自己分辨和判断;但生成式回答,如同一个善于整合的“故事大王”,会把那些零散、可疑的信息片段,通过强大的语言能力压缩、润色成一段流畅、肯定甚至带有鲜明建议色彩的完整“答案”。
例如,央视“3·15”晚会曝光的“Apollo-9”案例显示,仅靠批量生成和分发虚假软文,部分模型就会将虚构产品及其夸张卖点吸收进推荐答案。
合规与恶意如何界定
合规GEO与“投毒”的界限究竟在哪里?付新华判断:“凡是通过杜撰事实、伪造评测、冒充第三方立场、批量操控分发、刻意制造‘独立来源’假象来影响AI输出的行为,都应认定为恶意‘投毒’”。合规GEO,本质上是帮助AI更准确理解真实信息,如优化官网的表达,让产品参数、白皮书、权威报告更容易被AI发现和引用;而恶意“投毒”则是在人为制造虚假证据操控AI答案。
在实操层面,连云波为企业划出4条底线:一是内容必须真实可核验,不能虚构、不能夸大、不能把广告包装成评测;二是内容身份必须清晰,广告、生成内容、官方资料、用户评价不能故意混同;三是内容必须可追溯,能够说明作者、来源、发布时间、修改记录和支撑材料;四是在医疗、金融、教育、消费安全等高风险领域,应优先依赖备案信息、权威机构数据、正式说明书和资质文件,而不是依靠“内容矩阵”堆出虚假口碑。
反之,如果GEO滥用得不到遏制,付新华描绘了一种可能:“如果互联网上越来越多内容不是为了被人阅读,而是为了操控AI,那么真实内容、专业内容、慢生产内容就会在‘机器可操纵性’上输给批量制造的伪内容。”
“更可怕的是‘二次污染’。”连云波解释说,“今天污染的是搜索结果、检索语料和知识库,明天就可能通过再训练、蒸馏、模型更新形成‘二次污染’。”
“最深层的损害或许是信任。”付新华认为,一旦公众普遍形成AI推荐也不过是高级软文广告的印象,那么大模型就很难再承担起知识助手、消费顾问、决策参考等更高层次的功能。
GEO滥用的应对路径
“对于平台而言,关键在于建立信息免疫系统。”付新华认为,前端是“信源治理”,对官网、监管信息、主流媒体、自媒体进行差异化的可信度分层,让权威声音拥有更高权重。中端是“异常识别”,系统需要能识别出那些短期内集中发布、表述高度雷同、相互循环引用、带有明显商业操控意图的“内容集群”,防止模型被批量伪造的一致性所欺骗。后端则是“响应处置”,一旦出现重大风险事件,相关平台要有能力迅速启动“下架—降权—纠偏—回滚”的处置机制,避免错误答案长时间流传。
连云波建议,真正可持续的路径,是建设高质量官网、白皮书、产品文档、服务记录和知识库,让AI“有根据地引用”。只有平台提升治理能力、企业守住真实底线、用户保持基本核验习惯,AI信息生态才能逐步建立长期信任。
而对于普通用户,付新华建议把AI当作“线索工具”,而非“最终裁判”。尤其在涉及消费决策时,要多做几步核验:一要追问来源,不要只看AI给出的结论,要继续追问“这个推荐依据什么信息”“有没有官方来源或独立测评”。二要做交叉验证,把AI推荐和品牌官网、电商平台详情页、主流媒体报道、第三方专业测评对照起来看,不能只凭一轮问答就下单。三要警惕极端表述,凡是“第一名”“唯一推荐”“全网口碑最好”“闭眼买”这类绝对化措辞,都要提高警觉。四要优先看可核验事实,如参数、认证、售后、价格区间、用户真实评价,而不是被包装出来的故事性话术。

