2025年02月24日
第A15版:人工智能

网络安全厂商竞相采用DeepSeek

  ▶  孙立彬

  近日,国际数据公司(IDC)发布相关分析认为,DeepSeek或成未来网络安全行业首选基础大模型。据了解,DeepSeek上线至今,已有包括安博通、安恒信息、北信源、观安信息、霍因科技、华云安、绿盟科技、奇安信、启明星辰集团、山石网科、天融信、亚信安全等在内的众多国内网络安全厂商宣布接入DeepSeek大模型能力,并将进一步进行能力融合,越来越多的安全智能体正在尝试采用DeepSeek作为大模型底座。

  网络安全厂商为什么选择DeepSeek?

  IDC认为,首先,DeepSeek采用的“专家混合架构”(MoE),在同等算力下实现了更高的推理效率,可显著提升实时威胁分析和自动化安全响应的能力。其次,相比于同等规模的大模型训练成本,DeepSeek更具有优势,可最大程度节约企业投入成本,对于最终用户来讲,其部署训练及使用大模型的意愿和能力也将显著提升。此外,DeepSeek的开源生态通过GitHub、Hugging Face等平台吸引了全球开发者参与优化与安全测试,形成了充满活力的协同创新生态。在性能方面,DeepSeek模型在数学、代码和自然语言推理等任务上表现出色,尤其在复杂逻辑推理场景中展现了强大的深度思考能力,可为威胁检测、告警验证等场景提供更智能的解决方案。

  不过,在DeepSeek赋能网络安全行业的同时,IDC也发现,在大模型时代,AI的开放性与复杂性带来了前所未有的安全挑战,大模型安全问题已不容忽视。

  从安全视角出发,无论何种使用场景,大模型或GenAI(生成式人工智能)的使用都可能会给最终用户带来新的安全风险。如训练安全:大模型训练数据质量把控不过关,使用有偏见的数据训练生成的大模型会持续输出有偏见的输出;在模型训练过程中大量高质量数据需要被集中在一起,数据泄露风险会陡然加大。基础设施安全:大模型运行所依赖的硬件设施、软件框架、操作系统等,若存在漏洞,会极大影响大模型的稳定与安全运行。内容安全:大模型生成内容可能存在不准确、不合规、个人敏感信息或企业机密信息以及存在侵权可能的内容;输入内容可能存在恶意攻击指令会干扰模型推理预测,造成不良后果。应用安全:在应用层面面临传统网络安全问题和应用框架安全双重风险,如DDoS攻击、SQL注入、恶意插件、跨站脚本攻击等。

  针对这些新安全问题,IDC调研发现,目前,已经有越来越多的网络安全公司和大模型公司将关注重点放在大模型或GenAI工具的安全能力检测以及安全防护的方向上,推出了一系列的针对大模型或GenAI工具的安全检测和安全防护解决方案。当前大模型安全检测与防护解决方案包含了大模型攻防检测、输入内容安全检测、生成内容安全检测、代码安全检测、模型训练与防护、数据保护、访问控制与API防护几个大的方面。

2025-02-24 6 6 中国高新技术产业导报 content_146185.html 1 <p>网络安全厂商竞相采用DeepSeek</p> /enpproperty-->