Rambus详细介绍了其下一代HBM4内存控制器,该控制器将比现有的HBM3和HBM3E解决方案提供显著的提升。
HBM4将开启AI与数据中心演进的新篇章,提供更快的内存速度和更高的堆叠容量
随着JEDEC接近HBM4内存规范的最终确定,我们首次了解了下一代解决方案将提供的内容。HBM4内存解决方案主要面向AI和数据中心市场,将继续扩展现有HBM DRAM设计的能力。
图片来源:Rambus
首先,Rambus宣布其HBM4内存控制器将提供每个引脚超过6.4 Gb/s的速度,这应该比第一代HBM3解决方案更快,同时在相同的16层堆叠和64 GB最大容量设计下提供比HBM3E更高的带宽。HBM4的起始带宽为1638 GB/s,比HBM3E高出33%,是HBM3的两倍。
图片来源:Rambus
目前,HBM3E解决方案的速度可达9.6 Gb/s,每个堆叠的带宽可达1.229 TB/s。HBM4内存解决方案将提供高达10 Gb/s的速度和每个HBM接口高达2.56 GB/s的带宽。这将比HBM3E提高超过两倍,但HBM4内存的全部能力需要一段时间才能显现,只有在良率提升后才能访问。HBM4内存解决方案的其他特性包括ECC、RMW(读-修改-写)、错误清除等。
图片来源:Rambus
目前,SK海力士已开始大规模生产其12层HBM3E内存,容量高达36 GB,速度为9.6 Gbps,而其下一代HBM4内存预计将在本月完成流片。同时,三星预计将在2025年底前开始大规模生产其HBM4内存,本季度内将完成流片。
图片来源:NVIDIA
目前,预计NVIDIA的Rubin GPU将在2026年推出,将成为首个支持HBM4内存的AI平台,而Instinct MI400也预计将利用这一下一代设计,但AMD尚未确认。
HBM内存规格比较
DRAM | HBM1 | HBM2 | HBM2e | HBM3 | HBM3E | 下一代 (HBM4)
I/O (总线接口) | 1024 | 1024 | 1024 | 1024 | 1024-2048 | 1024-2048 |
预取 (I/O) | 2 | 2 | 2 | 2 | 2 | 2 |
最大带宽 | 128 GB/s | 256 GB/s | 460.8 GB/s | 819.2 GB/s | 1.2 TB/s | 1.5 – 2.56 TB/s |
每堆叠DRAM IC数量 | 4 | 8 | 8 | 12 | 8-16 | 8-16 |
最大容量 | 4 GB | 8 GB | 16 GB | 24 GB | 24 – 36 GB | 36-64 GB |
tRC | 48ns | 45ns | 45ns | TBA | TBA | TBA |
tCCD | 2ns (=1tCK) | 2ns (=1tCK) | 2ns (=1tCK) | TBA | TBA | TBA |
VPP | 外部VPP | 外部VPP | 外部VPP | 外部VPP | 外部VPP | TBA |
VDD | 1.2V | 1.2V | 1.2V | TBA | TBA | TBA |
命令输入 | 双命令 | 双命令 | 双命令 | 双命令 | 双命令 | 双命令 |