VAST Data 与 NVIDIA 合作推出全加速 AI 数据堆栈,优化 AI 管道性能
2026-02-26 08:43
收藏

盐湖城,2026年2月25日 — 在 VAST Forward 2026 大会上,VAST Data 宣布与 NVIDIA 深化合作,推出一个端到端、基于 CUDA 加速的 AI 数据堆栈。该方案让 VAST AI 操作系统直接运行于 NVIDIA 驱动的服务器上,帮助客户在统一平台上处理数据摄取、检索、分析和推理,减少 AI 管道中的数据瓶颈。

VAST AI 操作系统通过加速数据服务和计算层,简化了将独立存储、数据库与 AI 基础设施整合的操作,为 RAG 管道、代理系统和持续 AI 工作负载提供从实验到生产的更快捷路径。VAST CNode-X 服务器是与 NVIDIA 共同设计的新一代认证系统,改变了 AI 基础设施的构建方式。它使 VAST 平台能直接利用 NVIDIA 软件库,将 AI 管道、高性能分析、向量搜索和代理运行时编排为统一软件堆栈,提升实时 SQL 分析、向量搜索和 AI 推理的效率与性能。

VAST Data 创始人兼首席执行官 Renen Hallak 表示:“十年前,我们开始构建一个将数据转化为智能和行动的系统。通过与 NVIDIA 合作加速计算和数据路径,我们为客户提供了更快、更简单的方法,将检索、分析和代理工作流程操作化为连贯管道,推动 AI 从试点转向持久生产。” NVIDIA 创始人兼首席执行官 Jensen Huang 补充:“NVIDIA 正在重塑 AI 计算的每个支柱。与 VAST Data 合作,我们改变了 AI 基础设施的存储。CNode-X 在每层都进行 CUDA 加速,为 AI 代理提供持久内存,使其能长期处理复杂问题而不遗忘,开启了 AI 的新前沿。”

基于 CNode-X 服务器,VAST 在 AI 操作系统中整合了多项 NVIDIA 加速功能:针对 VAST DataBase 分析管道,通过 GPU 原生 SQL 引擎加速,结合智能数据布局和基于 NVIDIA cuDF 的 Sirius 查询引擎,早期测试显示查询时间最多减少 44%,成本降低 80%;嵌入 NVIDIA cuVS 库加速向量搜索和检索,改善实时 AI 应用的延迟;部署 NVIDIA NIM 微服务支持可扩展 DataEngine 管道,并开源针对视频智能、文档 RAG 等用例的蓝图;支持 NVIDIA CMX 平台加速大规模推理,降低长上下文推理的首令牌时间。

VAST 计划通过 Cisco 和 Supermicro 等 OEM 合作伙伴推出 CNode-X 服务器,让客户通过首选供应商采购 GPU 加速基础设施,同时保持一致的软件体验。Cisco Compute 高级副总裁兼总经理 Jeremy Foster 指出:“AI 通过集成系统扩展。客户需要确保数据安全、与智能网络和 GPU 加速计算对齐的基础设施。我们与 VAST 和 NVIDIA 的合作提供了企业就绪的基础,帮助组织安全扩展 AI。” Supermicro 总裁兼首席执行官 Charles Liang 表示:“生产 AI 需要计算、加速和数据平台的新集成水平。我们与 VAST Data 和 NVIDIA 提供真正集成的 AI 数据平台,简化企业 AI 复杂性,使组织更快从实验转向生产,解锁商业价值。”

VAST Data 是一家 AI 操作系统公司,通过统一软件基础设施堆栈为智能系统提供动力。其 AI 操作系统整合数据服务、计算服务和代理执行到可扩展平台,基于 DASE 架构消除性能、规模、简单性和弹性之间的权衡,将基础设施转变为推理 AI 的全球结构。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com