思科AI安全模型增强推理能力与威胁狩猎功能
2026-01-31 10:37
收藏

思科近日升级了其网络安全产品线,将人工智能技术更深入地融入安全解决方案中,旨在帮助安全团队提升工作效率。本次更新的重点是Foundation系列AI模型的安全优化版本,该版本增强了推理能力,采用了更结构化的任务处理方式。

通过开源平台Hugging Face提供的Foundation-Sec-8B-Reasoning模型是基于Meta Llama 3.1的微调版本。思科表示,这个新版本具备领域特定的分析能力,能够支持需要逻辑推理的安全工作流程,包括攻击路径分析、风险评估和威胁建模等任务。

该模型可以分析日志和遥测数据以识别恶意活动,评估系统配置和策略来发现潜在漏洞,并检查权限设置以分析过度特权账户带来的威胁。安全工程师可以通过专门的部署指南探索实际应用场景。

思科高管Yaron Singer和Amin Karbasi在博客中写道:“通用推理模型可以提供帮助,但它们可能缺乏理解安全工作流特定逻辑和结构的能力。Foundation-sec-8B-Reasoning通过结合指令遵循和显式推理痕迹来弥合这一差距。这使得它不仅能解释‘建议什么’,还能解释‘为什么’——帮助分析师建立对AI辅助决策的信任。”

拥有80亿参数的模型规模使其运行时不需要大量存储空间。技术资料显示,该模型在CTIBench等安全基准测试中的表现可与规模大10倍的模型相媲美。

思科还推出了基于PEAK威胁狩猎框架的开源工具PEAK威胁狩猎助手。该工具利用AI模型和自动化研究工具相结合,能够主动挖掘网络中未检测到的威胁。思科Foundation AI研究员David Bianco表示:“(该助手)超越了简单的LLM调用,其设计围绕能够进行目标导向推理、工具使用和自动化反馈循环的协作智能体团队展开。”

此外,思科发布了自适应AI搜索框架,使AI模型能够根据检索过程中遇到的证据来完善推理过程。该框架采用合成轨迹生成、监督微调、强化学习和推理时波束搜索等技术,使专注于安全的AI模型能够像人类调查员那样进行迭代搜索。

思科Foundation AI部门副总裁Singer指出:“对于安全团队而言,这一能力改进了威胁情报分析、加速了事件响应,并支持跨多样化数据源的主动漏洞研究。通过将检索行为与推理紧密耦合,Foundation AI的框架使智能体系统能够在出现新信息时持续调整其方法。”

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com