AI 存储路线图:GDDR 与 HBM 的发展趋势及应用场景分析
广发证券:HBM高带宽优势成为AI大模型训练推理关键 GDDR具备性价比优势
智通财经网04.2411:16
广发证券发布研报指出,GDDR是专为图形处理应用设计的高速内存技术,搭配GPU用于图形处理、数据中心加速和AI等需要高带宽数据处理的场景。HBM是一种新型内存,得益于堆叠结构和垂直TSV互连,HBM具有更高的传输带宽、更高的存储密度、更低的功耗以及更小的尺寸,高带宽优势对大模型训练和推理的效率提升至关重要。近年来,大部分高端数据中心GPU和ASIC均使用HBM作为内存方案,GDDR在推理等场景中具备性价比优势。未来,HBM技术持续向更高带宽、更大容量发展,12Hi-16Hi HBM4有望2026年进入量产。
广发证券主要观点如下:
AI存储路线图:更大容量、更大带宽、更低功耗
随着人工智能的快速发展,大模型的参数量指数级增长,不仅推升了处理器的算力需求,同时也对与处理器匹配的内存系统提出了更高的要求。一方面,大量模型数据的传输要求更大的内存带宽,以缓解“内存墙”问题,提升HPC系统计算效率;另一方面,内存系统的容量需要大幅拓展,以存储千亿参数乃至更大规模的大模型。
如何理解内存系统层级及关键参数?
对于单个乃至多个处理器组成的系统而言,内存系统自下而上可以分为单元、阵列、die、封装、系统几个层级。根据处理器设计和应用的不同,所配置的内存类型、规格选择和配置数量也有所不同,需要和处理器总线宽度、时钟频率等参数相匹配。内存最重要的性能参数是容量、带宽和延迟,同时还需要考虑能耗和性价比。不同类型的DRAM各有优势,在设计处理器系统架构的时候需要针对不同的应用,选择合适的内存系统设计。
DDR+LPDDR路线图:面向CPU,构建高效大容量内存系统
DDR是最传统、最主流的DRAM类型。广泛用于PC、服务器、HPC等领域。目前,DDR5是最新一代DDR标准,提供更高的速度、更高的效率和更大的容量。LPDDR正在成为数据中心CPU的新选择,其原因是需要在大规模AI和HPC工作负载的带宽、能效、容量和成本之间取得最佳平衡。
广发证券指出,随着前端先进制造技术接近物理极限,DRAM芯片本身的性能提升越来越难,从内存模组和系统架构层面进行性能提升成为新的方向。/允许并行访问同一个DIMM中的两个阵列,从而大幅提升DIMM模组的容量和带宽。CXL是一种高速互连技术,提供处理器与专用加速器、高性能存储系统之间的高效、高速、低延时接口,以满足资源共享、内存池化和高效运算调度的需求。
风险提示:半导体行业周期性波动风险;人工智能行业发展不及预期风险;新技术进展不及预期风险。