ADVERTISEMENT

随着辉达(NVIDIA)近日公布了未来三代AI伺服器的发展蓝图,新一代HBM(High Bandwidth Memory)记忆体的规格也成为业界关注的焦点。HBM记忆体在AI伺服器中扮演着至关重要的角色,其容量、频率和频宽的提升,直接影响着AI运算的效能。这场由辉达领跑的AI伺服器记忆体大战,不仅是技术的竞赛,更是市场佔有率的争夺。

辉达AI伺服器与HBM记忆体发展蓝图:性能至上的追求

辉达的AI伺服器发展规划中,基于GB300晶片的Blackwell Ultra NVL72将于今年下半年发布,继续採用HBM3E记忆体。而明年下半年的Vera Rubin NVL144将升级为下一代HBM4记忆体。到了2026年下半年的Rubin Ultra NVL576,则会採用加强版的HBM4E记忆体。预计在2028年,採用全新Feynman架构的产品有望首次搭载HBM5记忆体。

辉达对于HBM记忆体的需求不仅仅是容量的增加,更重要的是频宽和速度的提升。AI模型越来越複杂,需要处理的数据量也越来越庞大,因此,HBM记忆体的性能直接关係到AI伺服器的整体效能。辉达的发展蓝图清晰地展现了其对性能的极致追求,也给HBM记忆体原厂带来了巨大的挑战和机遇。

面对辉达对HBM记忆体的强劲需求,SK海力士、三星和美光三大记忆体原厂也纷纷展示了各自的HBM发展规划,积极争夺市场份额。

SK海力士:HBM领头羊的先发优势

SK海力士作为HBM记忆体的领先者,率先推出了48GB大容量的HBM4,採用单Die 24Gb(3GB)的设计,16颗堆叠而成。其数据传输率高达8Gbps,IO位宽为2048-bit,单颗频宽达到2TB/s。SK海力士凭藉其在HBM领域的技术积累和先发优势,有望在未来的市场竞争中保持领先地位。

美光:稳扎稳打,性能稳步提升

美光虽然没有公布过多的细节,但表示其HBM4记忆体的性能将比HBM3E提升50%,预计在2026年开始量产。美光在记忆体领域拥有深厚的技术实力,其稳扎稳打的策略也使其在市场上佔有一席之地。

三星:规格与蓝图并重,全方位布局

三星展示的HBM4记忆体同样採用单Die 24Gb的设计,提供36GB(12堆叠)和24GB(8堆叠)两种容量选择。其数据传输率最高可达9.2Gbps,频宽最高为2.3TB/s。三星的HBM4採用MPGA封装,尺寸为12.8x11毫米,堆叠高度为775微米,能效为每bit 2.3PJ。

在下一代HBM4E方面,三星计划将单Die容量提高到32Gb(4GB),支援8/12/16堆叠,单颗容量最大可达64GB,且高度维持不变。同时,数据传输率将提高到10Gbps,搭配2048-bit位宽,频宽可达2.56TB/s。三星不仅在规格上不断突破,更在蓝图上进行了全方位的布局,展现了其在HBM市场的雄心壮志。

HBM记忆体的应用前景:AI伺服器独佔鳌头

HBM记忆体目前主要应用于AI伺服器,未来预计仍将以AI领域为主。由于成本较高,HBM记忆体短期内不太可能下放到消费级显示卡市场。然而,随着AI技术的不断发展和应用场景的不断扩展,HBM记忆体的需求也将持续增长。

 

延伸阅读:NVIDIA Rubin 架构有望提前半年亮相:HBM4 记忆体加持,效能功耗比大跃进
延伸阅读:三星加速 HBM4 开发,计画 2025 年底量产
延伸阅读:为了HBM4高宽频记忆体,特斯拉紧盯三星和SK海力士