在当前的 AI 热潮中,硬件产业链并非被动参与者,而是扮演着以下几个关键且矛盾的角色:1)AI 硬件既是 AI 模型跃 迁的驱动引擎,也 是技术瓶 颈:大模型质的飞跃,并非仅仅源于算法优化、数据规模和质量的飞跃,也源于是算力规模的指数级增长。每一次模型能力的提升,都建立在更强大的芯片、更高速的存储和更先进的封装技术之上。然而,先进制程接近物理极限,摩尔定律放缓、HBM 存储器成本较高、先进封装产能紧缺,共同构成了暂时难以大规模突破的物理天花板。
AI 大模型的快速演进与广泛应用,已成为驱动人工智能算力需求增长的关键力量。为应对这一趋势,全球主要云端服务提供商(CSP)正持续加大在计算基础设施方面的投入。根据 TrendForce集邦咨询的研究,预计 2026 年在 GB/VR 等 AI 机柜方案持续放量下,八大 CSP 的总资本支出有望再创新高,年增达 24%,来到 6020 亿美元。支出结构已从能直接创造收益的设备,转向 Server、GPU 等资产,意味着巩固中长期竞争力与市占率优先于改善短期获利。
(二)国内算力奋起直追,政策支持国内 AI 芯片厂商成长
AI 芯片是算力产业的核心基础,为智能算法与各类应用场景提供关键计算支持。在服务器成本结构中,以 GPU 为代表的核心芯片占比高达 80%以上,实现 AI 芯片技术的自主可控对智算产业的长远发展具有战略意义,随着人工智能应用场景的持续扩展,市场对高性能 AI 芯片的需求显著提升。存算一体架构、光通信等前沿技术的突破,进一步推动了该领域的技术迭代与市场增长。2023年中国 AI 芯片市场规模约为 652 亿元,预计到 2026 年将突破 1600 亿元,行业快速增长。
(三)存储芯片周期持续上行,AI 为最重要推动力
存储行业的发展呈现出明显的周期性波动,目前已进入由人工智能驱动下一轮上行周期,本轮周期的核心驱动力发生了根本性转变。需求端的结构性变革是当前周期的突出特征。AI 服务器对存储芯片的容量和性能要求远超传统服务器,其 DRAM 用量约为普通服务器的 8 倍,NAND Flash 用量约为 3 倍。这直接引爆了对高带宽内存(HBM)、DDR5 内存及企业级固态硬盘(eSSD)等高性能产品的“吞噬式”需求。特别是 HBM,因其在 AI 训练和推理中的关键作用,需求呈现井喷之势,预计到 2027 年其在 DRAM 市场总价值中的占比将高达 43%。