如果大家关注存储行业近几年的发展,就不难发现这一系列变化的底层驱动力,正是AI产业的重心从训练向推理的转移。
现如今,存储设备的角色正在被重新定义。在传统的计算架构中,SSD(固态硬盘)与运算之间存在着明确的边界:SSD主要负责存储,内存才是运算的组成部分。然而,随着AI推理需求的爆发,目前该边界正在被打破。
以现在备受关注的AI训练和AI推理应用为例。在训练服务器中,SSD主要承担的是数据集存储和检查点存储的角色,数据定期向远端存储刷写。但在推理服务器中,SSD开始承担KV Cache缓存、向量数据库存储、多用户数据状态存储等实时任务,这些不仅仅是存储,也是运算本身的一部分。
KV Cache是一种存储键值对数据的缓存机制。在大模型推理过程中,模型需要多次访问相同的数据,而KV Cache通过将这些数据缓存到内存中,可避免重复计算,从而提升推理速度。
康雷谈到了SSD在推理服务器中的角色转变:“SSD不再仅是数据的‘容器’,而是深度参与运算的‘扩展内存’。”实际上,这一转变的背后是纯粹的技术经济逻辑。由于HBM和DRAM的性价比和天生容量无法满足AI推理对存储的爆炸性需求,故而在推理过程中,KV Cache通过缓存中间计算结果来避免重复计算。这也是优化推理速度的关键。
一般来说,LLM的上下文越长,KV缓存的问题就越严重。Epoch AI在Trends页面上追踪了一个相关趋势——LLM(大语言模型)的上下文窗口长度自2023年以来每年增长30倍。这反映了KV Cache的显存容量需求呈线性增长,其增长速度远超硬件配置的增速。此外,单次128K tokens的推理,对于7B以上参数的大模型,所产生的KV Cache高达数十GB,这远超单卡HBM容量,且DRAM的带宽无法满足实时推理需求。在此背景下,SSD成为承接这一需求的最优解。
如果说KV Cache的爆发式增长已经足以驱动存储产业的需求升级,那么Agentic AI的兴起则将这一需求推向了新的高度。Agentic AI是指具备自主感知、推理、规划与执行能力的人工智能系统,它能够在最少人工干预下,独立完成多步骤任务并通过闭环实现持续优化。

图2:FADU XDW223企业级NVMe SSD
康雷用一组量化的数据揭示了这一变化:普通单次对话的推理调用次数为1次,检索增强生成(RAG)场景为2至4次,而真正智能体的调用次数则达到了50次甚至更多。每一次调用都意味着更长的上下文、更多的KV Cache读写,以及更大的SSD吞吐压力。
他指出,“训练是一次性的、集中式的,而推理是持续性的、分布式的。AI的商业价值最终要在推理阶段兑现”。业界普遍预测,未来推理服务器与训练服务器的比例可能高达50:1。而每一台推理服务器所需的SSD数量也将从当前的8到16片,在未来两年内提升至32片。
通过以上信息可推测出,训练到推理带来的直接后果是更多的推理服务器,而更多的推理服务器则需要更多的SSD和更强的SSD。由此可见,未来AI需求将带动海量的存储需求。与此同时,推理服务器的性能和功耗成为备受瞩目的焦点,这对适用于服务器用SSD的性能和功耗提出了新的要求。
在AI推理对SSD提出前所未有的性能和功耗要求的背景下,FADU正在通过其独特的技术架构创新回应这一挑战。
资料显示,FADU成立于2015年,2023年在韩国上市,公司主营业务是企业级SSD控制器及整体方案。与其他存储主控厂商不同,FADU从一开始就采用了一种独特的分布式多核架构:在大核之外,部署了超过30个RISC-V架构的小核。
康雷解释了此设计的优势:“RISC-V小核支持流水线(Pipelining)处理,大幅增强处理并发度,从而在提升性能的同时降低功耗”。由于算力单元颗粒度变小,系统还可以根据负载灵活调配资源——在负载不高时主动降低功耗,这是传统架构难以实现的。

图3:FADU Gen5 XDW223企业级SSD(左)和Gen5存储主控(右)
在产品路线图上,FADU已实现三代控制器(PCIe Gen3、Gen4和Gen5)的量产。根据公司最新披露的信息显示,其Gen5控制器可提供高达14 GB/s的顺序读取速度、高达340万IOPS的随机读取性能以及低于7W的功耗。
据康雷介绍,FADU的PCIe Gen6控制器Lhotse(洛子峰)已经流片,并将于2026年5月回片。新一代Gen6控制器采用全新架构,与Gen5控制器相比,其性能提升超过一倍,顺序读取速度高达28.5 GB/s,随机读取性能高达690万IOPS,而满性能功耗<7W(读)/9.5W(写)。此外,搭载了FADU PCIe Gen6控制器的SSD的空闲(Idle)功耗<4W。
这些性能指标的提升直接回应了AI推理对存储的迫切需求。由于PCIe Gen6提供的带宽是Gen5的两倍,使得数据在存储和计算资源之间的移动瓶颈被大幅消除。在AI推理场景中,这意味着KV Cache的读写延迟显著降低,推理服务器的整体响应能力得到实质性提升。
从市场验证来看,FADU的产品已经获得了相当程度的认可。据康雷透露,仅在Gen5主控上,2025年出货量已超过100万片,2026年预计突破300万片,2027年预计超过500万片。在全球企业级SSD市场中,第三方主控厂商做到这个量级相当不易,尤其是在颗粒原厂长期占据主导地位的格局下。
除了硬件架构本身的创新之外,FADU在数据放置策略上的技术积累也构成其差异化竞争优势。目前,该公司正在深度参与并持续推动在FDP(灵活数据放置)技术。
FDP技术由OCP标准组织推动,这是一项为NVMe SSD设计的、旨在提供高度灵活性的新数据放置协议。在AI推理场景中,FDP的价值被急剧放大。模型训练过程中产生的检查点,有的会被快速删除,有的会被长期保留。而推理过程中产生的KV Cache也有不同的复用频率。如果将这些不同生命周期的数据混放,垃圾回收操作将导致显著的性能下降。
康雷用一个形象的比喻解释FDP的价值:“如果没有FDP,数据写入就像在停车场里盲目寻找车位,会不断绕路,导致写放大快速上升、垃圾回收频率显著增加。而通过FDP,上层应用可以根据数据的生命周期指导其在SSD内部的放置位置,将短期数据和长期数据隔离存放。”总的来看,FDP技术使每个流隔离,保持性能不下降,同时降低总体拥有成本。在数据中心的运营中,这直接转化为电费成本的节约。
此外,康雷还特别强调,企业级产品的核心是稳定性和可靠性,而这正是FADU数百万片发货量所提供的最大背书。在功耗日益成为数据中心核心成本指标的今天,FADU在能效方面的领先优势正在成为其最重要的竞争壁垒之一。
从全球视角看,SSD市场正呈现出显著的地域分化。康雷透露说,北美市场与亚洲市场存在明显的生态差异。在北美,SSD供应链高度集中在颗粒原厂,超大规模互联网客户,如Meta、Google、微软等厂商,主要通过颗粒原厂直接采购SSD。
“SSD本身的一大块成本是NAND,与颗粒原厂合作可以确保NAND的稳定供应和可靠性。我们在北美市场的主要合作模式也是通过与颗粒原厂进行合作,由后者做成品牌SSD提供给大型CSP(云服务器厂商),”他介绍说。
中国市场的格局截然不同。一方面是,由于长江存储2016年才成立,国产颗粒原厂在全球的市占率尚未达到主导地位;另一方面,中国市场活跃着超过十家中等规模的SSD模组厂,其供应商数量远多于北美市场。
康雷坦言,在这种格局下“每一家都比较辛苦,但都不能很好地实现盈利”,他坚信“随着行业的进一步发展,国产存储产业链将发生企业整合”。在此背景下,FADU在中国市场的策略是“聚焦头部客户,做好服务器适配,从主流服务器厂商入手,一家家做好兼容性验证”。
在供应链层面,康雷坦率地指出,供应链安全是行业面临的共同挑战。据介绍,FADU的晶圆目前由台积电代工。他感叹道:“在4nm、6nm等先进制程方面,全球范围内很难找到第二家能够与之抗衡的供应商。”台积电在技术、能力和产能上的领先地位,使得所有主流芯片厂商都面临类似的集中度风险。为了能缓解这一风险,FADU在封测环节布局了第二供应商,但短期内仍将依赖台积电代工芯片。
在采访中,我们也谈到了存储行业缺货现状。从整个存储产业的供需格局来看,结构性短缺正在成为贯穿2026年的主线。扩产周期长达18至24个月,而AI推理带来的需求增长以指数级攀升,导致缺货状态短期内无法缓解。康雷对此的判断是,“在短期内,供应一直会是一个问题,至少在2027年下半年之前,仍然看不到缓解的迹象”。这一判断与行业机构的数据高度一致——目前,存储行业库存已跌至历史安全线以下,预计涨价趋势将贯穿2026全年。
2026年,存储产业正在经历的,并非是一轮普通的周期性反弹,而是一次深刻的长期结构性变革。SSD正在从传统意义上的“存储介质”进化为AI计算架构中的“扩展内存层”——它参与计算,而不仅仅是承载数据。而在当前,推理服务器的普及、Agentic AI的爆发、KV Cache的指数级增长,共同构成了推动这一变革的三大核心驱动力。
FADU以其创新的分布式多核架构、FDP数据放置技术和即将发布的Gen6控制器,在这场变革中占据了一个独特的位置。从2015年成立到2023年上市,从2025年百万片发货到2026年预计三百万片以上的出货量,其发展轨迹本身就是一个验证——验证了AI推理对存储需求的重构并非概念炒作,而是正在发生的商业现实。
正如康雷的演讲所言:“AI对于我们来说可能就像工业革命一样伟大,甚至比工业革命来得更加深远。”在这场革命中,存储不再是幕后角色,它正在走向舞台中央,成为定义下一代AI基础设施的关键变量。