关键要点:
- 被誉为“HBM之父”的韩国科学技术院(KAIST)金政浩教授预测,到2028年,AI架构将从以GPU为中心转向以存储为中心。
- 下一代解决方案“高带宽闪存”(HBF)将通过堆叠NAND闪存将存储容量提升高达1000倍,以满足代理型AI的需求。
- SK海力士和三星已展开HBF市场主导权争夺,SK海力士成立了标准化联盟,三星则在开发并行NAND架构。
关键要点:

AI架构可能会迎来根本性转变,存储而非GPU将成为新的计算中心。
被广泛视为“HBM之父”的韩国科学技术院(KAIST)金政浩教授预测,目前的以GPU为中心的AI模型将在未来四年内被以存储为中心的架构所取代。他认为,从生成式AI向更复杂的代理型AI(Agentic AI)的转变,将要求存储容量和带宽增加高达1000倍,而现有技术无法满足这一需求。
据韩国媒体报道,金教授表示:“代理型AI时代需要一种全新的存储方案。”他的预测指向一个未来:海量数据集将直接在存储系统中进行处理,从而减少数据在中央GPU之间往返传输所造成的瓶颈。
这一预测的核心是一种名为高带宽闪存(HBF)的下一代解决方案,它涉及堆叠NAND闪存,而非目前高带宽存储器(HBM)中使用的DRAM。这将创造一个容量大得多的长期存储“巨型书架”。HBF的工程样品预计将于2027年左右面世,最早可能在2028年被谷歌、英伟达或AMD等主要厂商采用。
这一技术转变拉开了韩国存储巨头SK海力士与三星电子之间新战线的序幕。能够成功实现HBF技术标准化并大规模生产的公司,将在AI硬件市场的下一阶段占据主导地位,并可能改变目前由英伟达等GPU制造商主导的竞争格局。
这种预测的架构变革背后的驱动力是AI应用本身的演进。随着AI从简单的内容生成转向自主的“代理”系统,必须同时处理的数据量(即“上下文”)呈爆炸式增长。金教授将其称为“上下文工程”的兴起,即AI代理必须处理庞大的文档库、视频和其他多模态数据才能有效运行。
为了达到这些任务所需的速度和精度,金教授估计存储带宽和容量需要实现惊人的1000倍提升。金教授引用的一些预测显示,输入规模增加100到1000倍,可能会导致存储需求比目前高出多达100万倍。现有的HBM技术通过垂直堆叠DRAM实现高速访问,是目前AI加速器中的标准,但在达到这些水平之前,它将面临容量天花板。HBM就像是一叠便利贴——访问速度快但容量有限。相比之下,HBF被构想为一整面墙的图书馆,提供了完全不同量级的存储空间。
开发这种下一代存储器的竞赛已经开始,重演了HBM开发期间的激烈竞争。HBM市场的领导者SK海力士已采取积极行动以确立早期优势。今年2月,该公司与西部数据的闪迪(SanDisk)成立了HBF标准化联盟,旨在围绕该技术构建生态系统。SK海力士还发表了关于“H3”架构的研究,该架构将HBM和新型HBF与GPU并列放置,实际上将处理单元嵌入到了一个更大的存储系统中。
三星电子则在推行双轨战略。据《亚洲日报》(Aju News)报道,在通过HBM4E等产品继续推进其HBM产品线的同时,该公司也在开发自己的基于NAND的架构,这与HBF的概念一致。这场竞争不仅在于制造一种新芯片,更在于定义整个行业的标准。赢家将是那些能率先建立从标准制定、设计到大规模、低成本制造的完整周期的公司,从而在AI的未来中占据关键地位。
本文仅供参考,不构成投资建议。