当全球AI算力竞赛进入白热化阶段,内存技术的每一次突破都可能重塑行业格局。据韩媒MToday最新报道,SK海力士计划于今年十月正式量产12Hi HBM4高带宽内存,这一时间节点恰好与英伟达明年推出"Rubin"架构AI GPU的规划形成战略协同。这场存储巨头与算力霸主之间的"双人舞",将如何改写AI硬件生态?
技术突破:12层堆叠实现36GB容量
SK海力士此次量产的12Hi HBM4采用12层24Gb DRAM芯片堆叠技术,单封装容量达到36GB,带宽飙升至惊人的2TB/s。更值得关注的是,其良率已从年初的60%跃升至70%以上,为规模化量产扫清了关键障碍。这种进步源于该公司在3D检测单元集成上的创新,通过Nextin设备实时监控晶圆切割过程,有效解决了多层堆叠导致的芯片损伤问题。
对比当前主流的8层HBM3E,12Hi HBM4不仅在容量上提升50%,更通过硅通孔技术(TSV)和MR-MUF工艺的优化,在保持相同封装厚度的前提下,将单颗DRAM芯片厚度削减40%,同时散热效率提升10%。这些突破性设计使得新产品能够完美适配下一代AI加速卡的严苛要求。
市场博弈:30%溢价背后的供应争夺战
TrendForce集邦咨询预测,由于I/O接口翻倍和基础裸片复杂度增加,HBM4初期溢价幅度将突破30%。这种"技术溢价"现象在SK海力士财报中已有印证——其HBM业务去年三季度营收同比暴涨330%,且2025年产能已被预定一空。
供应链消息显示,英伟达正积极协调HBM4供应,以确保"Rubin"架构GPU的顺利上市。这种深度绑定关系使SK海力士在HBM市场持续压制三星和美光,后两者虽加速布局HBM3E,但在12层堆叠技术量产进度上仍落后至少一个季度。分析人士指出,HBM4有望在2026年下半年超越HBM3E成为市场主流,届时SK海力士的领先优势或将进一步扩大。
生态重构:AI算力竞赛的新支点
SK海力士AI基础设施业务负责人金柱善强调:"12Hi HBM4不仅是容量提升,更是为千亿参数大模型设计的传输解决方案。"以Llama3 70B模型为例,搭载四个HBM4模块的GPU每秒可执行35次全参数读取,这种性能飞跃将直接降低AI训练成本。
随着微软、谷歌等云服务商加大AI服务器投入,HBM市场正呈现指数级增长。SK海力士的技术路线图显示,公司已着手开发16层堆叠方案,继续领跑这场存储技术的"登高竞赛"。当AI算力需求每年增长10倍的今天,谁掌握了高带宽内存的制高点,谁就握住了开启下一代AI应用的钥匙。这场始于存储芯片的技术革新,终将重塑整个智能时代的硬件基座。