SK海力士十月量产12Hi HBM4 英伟达AI芯片供应链再添利器

当全球AI算力竞赛进入白热化阶段,内存技术的每一次突破都可能重塑行业格局。据韩媒MToday最新报道,SK海力士计划于今年十月正式量产12Hi HBM4高带宽内存,这一时间节点恰好与英伟达明年推出"Rubin"架构AI GPU的规划形成战略协同。这场存储巨头与算力霸主之间的"双人舞",将如何改写AI硬件生态?

14332320137.png

技术突破:12层堆叠实现36GB容量

SK海力士此次量产的12Hi HBM4采用12层24Gb DRAM芯片堆叠技术,单封装容量达到36GB,带宽飙升至惊人的2TB/s。更值得关注的是,其良率已从年初的60%跃升至70%以上,为规模化量产扫清了关键障碍。这种进步源于该公司在3D检测单元集成上的创新,通过Nextin设备实时监控晶圆切割过程,有效解决了多层堆叠导致的芯片损伤问题。

对比当前主流的8层HBM3E,12Hi HBM4不仅在容量上提升50%,更通过硅通孔技术(TSV)和MR-MUF工艺的优化,在保持相同封装厚度的前提下,将单颗DRAM芯片厚度削减40%,同时散热效率提升10%。这些突破性设计使得新产品能够完美适配下一代AI加速卡的严苛要求。

14342646587.png

市场博弈:30%溢价背后的供应争夺战

TrendForce集邦咨询预测,由于I/O接口翻倍和基础裸片复杂度增加,HBM4初期溢价幅度将突破30%。这种"技术溢价"现象在SK海力士财报中已有印证——其HBM业务去年三季度营收同比暴涨330%,且2025年产能已被预定一空。

14345630387.png

供应链消息显示,英伟达正积极协调HBM4供应,以确保"Rubin"架构GPU的顺利上市。这种深度绑定关系使SK海力士在HBM市场持续压制三星和美光,后两者虽加速布局HBM3E,但在12层堆叠技术量产进度上仍落后至少一个季度。分析人士指出,HBM4有望在2026年下半年超越HBM3E成为市场主流,届时SK海力士的领先优势或将进一步扩大。

生态重构:AI算力竞赛的新支点

SK海力士AI基础设施业务负责人金柱善强调:"12Hi HBM4不仅是容量提升,更是为千亿参数大模型设计的传输解决方案。"以Llama3 70B模型为例,搭载四个HBM4模块的GPU每秒可执行35次全参数读取,这种性能飞跃将直接降低AI训练成本。

随着微软、谷歌等云服务商加大AI服务器投入,HBM市场正呈现指数级增长。SK海力士的技术路线图显示,公司已着手开发16层堆叠方案,继续领跑这场存储技术的"登高竞赛"。当AI算力需求每年增长10倍的今天,谁掌握了高带宽内存的制高点,谁就握住了开启下一代AI应用的钥匙。这场始于存储芯片的技术革新,终将重塑整个智能时代的硬件基座。

标签:
版权声明: 部分文章信息来源于网络以及网友投稿.本网站只负责对文章进行整理、排版、编辑.是出于传递更多信息之目的.并不意味着赞同其观点或证实其内容
的真实性如本站文章和转稿涉及版权等问题,请作者及时联系本站,我们会尽快处理。

网址:https://pdf.jiepei.com/article/836.html

评论

登录后参与讨论

目前还没有评论,等你发挥~