两者分别适配“低延迟单线程”与“高带宽并行计算”需求。 AI 时代存力的首选,HBM 是高性能计算卡的核心组件之一
自 ChatGPT 爆火之后,国内外大厂争相竞逐 AI 大模型。而 AI 大模型的基础,就是靠海量数据和强大算力来支撑训练和推理过程。参数量越大,AI 模型越智能,如GPT-4达1.76万亿参数,训练需百万次调取千亿字节数据。在为期两个月的训练中,必须来回调取数百万次如此庞大的数据。如果能缩短数据存取,就会大大简化训练过程。过去20年,硬件算力激增9万倍,而内存/硬件互连带宽却只是提高了 30 倍。存储性能滞后导致“内存墙”——数据搬运耗时远超运算此时,高带宽内存 HBM 应运而生,被认为是 AI 计算的首选内存。