维度网讯,美国网络设备制造商思科正式开源一款名为Model Provenance Kit的AI模型溯源工具包。该工具以Python命令行界面形式发布,通过对AI模型进行权重级指纹识别,结合元数据、分词器相似性及嵌入几何、归一化层特征、能量分布等多维度技术信号,为每个模型生成唯一身份标识,帮助企业追踪从第三方平台获取的AI模型来源、修改历史及部署安全性。
思科AI威胁情报与安全研究负责人Amy Chang将模型溯源称为AI治理中缺失的一层。她指出,当前行业处于AI发展的早期阶段,系统建设仍以能力突破为主,但随着AI加速进入受监管的高风险领域,模型溯源将支撑起治理框架、问责机制与可信执行的数字基线。思科在官方博客中将这套工具比作“AI模型的DNA测试”——正如DNA测试能够揭示生物体的遗传起源,Model Provenance Kit同时审视模型的元数据和实际学习的权重参数,判断不同模型之间是否存在共同的衍生源头,并识别模型是否被人为篡改。
这套工具提供两种核心工作模式。Compare模式支持对任意两个模型进行直接对比,输出溯源分数,判断是否存在共享谱系;Scan模式则将单个模型与思科托管在Hugging Face上的指纹数据库进行比对,匹配最接近的候选模型并重建可能的衍生链路。该数据库目前覆盖约150个基础模型,涵盖45个模型家族,参数规模从1.35亿到700亿不等。思科同时发布了Model Provenance Constitution——一份定义模型衍生关系判定标准的规范性文件,为行业中尚不统一的溯源定义提供了一套以权重级衍生关系为核心依据的参考框架。
Model Provenance Kit的技术路径指向当前AI供应链中一个长期被忽视却持续蔓延的系统性缺口。Hugging Face等开源模型平台已托管超过200万个公开模型,但平台上的文档可以被伪造,元数据可以被删除或篡改,标注为“从头训练”的模型可能仅仅是其他模型的复制品。2026年春季的行业案例进一步放大了这一问题的现实性:AI编程工具Cursor的Composer 2被发现部分构建在中国AI模型Kimi 2.5之上,这类复杂的供应链依赖关系凸显了可验证溯源机制的紧迫性。Anthropic、英国AI安全研究所与艾伦·图灵研究所此前发表的联合研究显示,仅需250份恶意文档即可在大型语言模型中植入后门,且模型越大越容易被污染。一旦被投毒模型进入企业技术栈,缺乏专用工具将难以追溯污染源。
在企业实际应用层面,该工具直接回应了多个层面的合规与安全需求。欧盟《人工智能法案》明确要求记录训练数据、训练方法特征及高风险系统风险评估;美国NIST AI风险管理框架将第三方AI组件风险列为独立治理领域。当一个AI模型被证实存在漏洞或偏见时,缺乏溯源能力的组织无法判断该问题是否通过模型供应链传播至其技术栈中的其他模型,继而影响内部聊天机器人、智能体应用乃至客户触达工具。思科在已发布的2026年AI安全报告中同样将AI供应链风险列为反复出现的隐患。
凭借一套明确的溯源判定规则和可验证的技术方法论,思科的工具套件将促使企业在部署第三方AI模型时更主动地进行安全审查与治理溯源,成为高监管行业和关键基础设施领域企业落地AI前的一道关键验证环节。Model Provenance Kit已在GitHub上公开完整源代码,思科同步提供了全面的指纹数据库供行业共同使用。
本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com








