一张朋友圈普普通通的照片,经人工智能大模型处理后,个人身份、人际关系等敏感信息就可能被泄露——近日,大模型“读心术”登上热搜,再次引发有关网络安全的讨论。大模型正面临着被诈骗分子利用的风险,其安全漏洞令人心惊。
“‘读心术’只是初级阶段,窃密者借助攻击工具监测大模型回复时长的细微差异,就能猜到用户私密指令。”一位网络安全工程师告诉科技日报记者,利用孪生语言预测器,窃密者短时间内就可以“刺探”其他人与大模型的“私人聊天”。
该安全工程师解释说,大模型推理时为了节约算力,对于相似诉求往往会“合并同类项”,根据指令返回的时间差,就能计算出关键字节,并对其进行拼接,从而找到答案。这一原理和“十八猜”游戏相似,但大模型设计的短板和孪生语言预测器的效率让窃密更容易。
事实上,孪生语言预测器只是大模型在网络攻防领域遭受的新攻击类型之一。从“提示词植入”到“恶意代码接管”再到“篡改基础数据”,针对大模型、智能体的新攻击、新武器、新策略从未停止。
《科技日报》 2025.11.20 张佳星

