距展会开幕还有
人工智能的爆发,彻底改写了算力与存储的关系。AI 大模型训练与推理,对存储提出了容量、带宽、延迟、可靠性的四维极致要求,使存储从幕后走向台前,成为决定 AI 算力效能的 “命门”。
从需求看,AI 服务器对 DRAM(内存)需求是传统服务器的8-10 倍,对 NAND(闪存)需求高出3 倍以上。一个万亿参数大模型,权重文件就占约2TB,训练中 Checkpoint、梯度缓存等需求再放大3-5 倍。更关键的是性能:AI 训练要求微秒级延迟、TB 级带宽,传统存储 IO 速度远跟不上 GPU 算力,导致算力浪费
在推理场景,长上下文(如 128K Token)的 KV 缓存占用超 **90%** 显存,存储直接决定模型并发能力与成本微博。为破解瓶颈,HBM(高带宽内存)、AI-SSD、存算一体等技术应运而生,存储开始主动 “适配” 甚至 “增强” 算力。行业共识已形成:算力决定 AI 能跑多快,存储决定 AI 能跑多远