
从日均 1000 亿到 140 万亿,中国数据市场在短短两年间经历了令人咋舌的爆发式增长。国家数据局的最新数据显示,这一数字在 2026 年已飙升至惊人的规模。这组数字的背后,不仅仅是数据的堆积,更标志着 AI 正在从实验室的模型训练,全面走向生产生活的落地应用。对于存储行业而言,这不再是一次温和的增量增长,而是一场彻底的重构。
过去,存储设备的核心使命是“数据保存”,它们像是一个个被动的容器,默默承载数据。而今天,存储被赋予了“数据赋能”的新职责——它不再是静态的仓库,而是主动参与数据处理、支撑 AI 高效运转的核心枢纽。正如浪潮信息存储产品部副总经理郭海峰所言,传统企业存储侧重于数据保护,而AI 存储的首要目标是效率提升,核心在于如何充分满足 GPU 对数据的需求,避免其空转。
这种变化不仅仅是产品定位的调整,而是整个技术架构的“基因重组”。过去的企业级存储多基于“通算架构”,以 CPU 为核心,数据需要经过内核态的复制和转发才能传递给 GPU。这种架构在处理传统应用时行之有效,但在面对智算时代的 GPU 集群时,效率却显得捉襟见肘。
数据的代价是昂贵的。IBM 大中华区存储事业部总经理吴磊指出,如今 GPU 部署动辄百卡、千卡乃至万卡规模,投资动辄上亿。在这种背景下,1% 的闲置就意味着上亿元的浪费。如果存储成为瓶颈,导致 GPU 空转,那么存储和网络本身占比 5% 至 10% 的成本,就会直接毁掉其余 90% 以上的投资回报。
为了满足企业对算力利用率的需求,存储行业必须打破传统,让 AI 走向数据。这意味着存储架构需要从被动响应转向主动优化,确保 GPU 的每一次计算都物尽其值。
在这场重构中,软件与硬件的协同优化成为了关键突破口。行业领先者如浪潮信息,通过全链路免锁零拷贝的用户态 AI 原生并行架构,将数据传输路径从内核态切换到用户态协议栈,实现了端到端的免拷贝。这一技术革新将延迟从传统的毫秒级降至微秒级,单节点带宽更是达到了160GB/s,远超行业主流的 60GB/s 至 80GB/s。
在软件架构的变革背后,更深层的技术主线是KV Cache(键值对缓存)的优化。随着 AI 模型上下文窗口的急剧扩大,KV Cache 的规模已远超 GPU 显存(HBM)和本地 DRAM 的承载能力。浪潮信息通过 PD 分离(Prefill 与 Decode 分离)及双路径设计,将空闲带宽整合利用。数据显示,其 Agent Memory 外置存储架构可将首 Token 延迟降低 97%,Token 吞吐量提升超过 20 倍。
相比之下,IBM 则从硬件底层切入,推出了支持万卡集群高频 checkpoint 落盘的 Storage Scale 并行文件系统。其自研的第五代闪存核心模块(FlashCore Module 5)在每块 NVMe 闪盘上嵌入了专用芯片,实现了硬件级的压缩、去重和加密。这种设计能够将压缩比做到 1:5,且不影响存储控制器性能,从另一个维度释放了 GPU 的计算效率。
当存储节点进化为具备计算能力的智能枢纽时,业界对高带宽、低延迟存储介质的依赖呈指数级攀升。这也直接导致了上游供应链的价格波动。2026 年第一季度,DRAM 内存合约价涨幅高达 90%-95%,NAND Flash 闪存合约价涨幅也达到 55%-60%。
尽管价格上涨是暂时的,但效率优化才是关键。行业专家普遍认为,存储迁移到高带宽方案后,即便成本增加 10%,也能提升 GPU 利用率 15%,这笔账在经济上显然是划算的。同时,通过硬件级压缩技术,用户在涨价后开启压缩功能,其实际可用容量的单位成本甚至可能比涨价前更低。
除了成本考量,存储行业对“数据应该放在哪里”这一根本问题的思考也发生了结构性变化。传统的“热、温、冷”分层已不足以应对 AI 时代的复杂性,一个全新的五层存储体系应运而生:
- 第一层:HBM(高带宽内存)
- 第二层:本地 DRAM
- 第三层:本地 SSD
- 3.5 层:专门服务于推理场景的外置缓存层。这层存储为了效率,可以牺牲一定的可靠性,采用 1:1 数据比,确保速度优先。
- 第四层:传统企业级外置存储,继续保留数据保护优先的理念。
在这一体系中,古老的“磁带存储”技术意外成为了性价比之选。随着磁带容量的提升和成本的优化,对于几个月甚至半年才访问一次的数据,两分钟的等待是完全可接受的。磁带机械臂抓取数据的等待时间,在长周期的冷存储场景下,已不再是瓶颈。
这场变革最深层的意义,在于模式的重塑。传统的“让数据走向 AI"模式,即应用发起请求、存储响应,在大规模高并发场景下已难以为继,甚至面临数据一致性的崩塌。面对 EB 级数据,多个副本之间谁真谁假成为了难题。
IBM 提出的内容感知存储(CAS)提供了一个新的解题思路。它结合单一数据副本和即时感知机制,确保模型能够即时感知数据变化,而非通过繁琐的副本传输来同步。浪潮信息提出的“AI Data Platform”概念与之异曲同工,强调数据不是静态的“湖”,而是一条不断流淌的河流,需要不断处理、清洗、打标和再优化。
这种动态的数据管理逻辑,催生了新的产业协同模式。无论是浪潮信息的“搭台唱戏”,还是 IBM 与英伟达的深度集成,其核心都在于让 AI 走向数据。存储从被动的数据仓库,转变为主动的数据编排平台。AI 智能体可以分析所有数据,一次性做出决策,甚至实现跨洲的数据迁移,极大地解放了存储管理员的精力。
回顾这场存储行业的惊涛骇浪,其最终落点仍然是人。吴磊强调,AI 是工具,没有情感,无法做最终决定,最终决策权仍在人类手中。无论是让 GPU 不空转,还是让智能体管理异构节点,终极目标都是将人从繁琐的运维中解放出来。
调研显示,尽管 CEO 对 IT 架构充满自信,但 CIO 却深感焦虑。这种认知落差恰恰说明,AI 时代的数据基础设施挑战远比表面复杂。当全球 AI 总支出逼近万亿美元量级,存储不再只是技术的终点,而是成为 AI 价值链条中不可或缺的一环。“让存储融入平时的业务中,而不是让业务等存储”,这或许是这个时代对存储行业最朴素也最关键的要求。
