您当前位置:主页 > 业界资讯 >

SK海力士HBM4E发布:3.2TB/s带宽重塑AI算力格局

时间:2025-06-23

在韩国仁川举办的半导体创新峰会上,SK海力士正式推出全球首款面向AI训练优化的HBM4E内存,凭借3.2TB/s的带宽、8ns超低延迟及定制化逻辑基板设计,成为AI芯片领域的技术标杆。该产品已获英伟达H200 Ultra GPU独家订单,标志着HBM技术进入“异构融合”新纪元。

技术突破:带宽与能效的双重跃迁

HBM4E采用第六代10nm级(1bnm)工艺制程,通过24Gb DRAM芯片的12层堆叠架构,单封装容量达36GB,带宽较上一代HBM3E提升100%。其核心创新在于引入“混合信号逻辑基板”,将内存控制器与计算单元直接集成于基础芯片,通过台积电5nm工艺制造的定制化逻辑层,实现内存访问延迟从12ns压缩至8ns,能耗降低35%。

SK海力士独家的MR-MUF键合工艺进一步优化了芯片堆叠密度,在12层结构中实现2048位超宽接口,信号传输效率提升40%。同时,HBM4E支持动态电压频率调节(DVFS)技术,可根据AI训练负载实时调整功耗,在推理场景下能效比(TOPS/W)较传统HBM3E提高2.2倍。

生态绑定:英伟达H200 Ultra的“性能加速器”

英伟达H200 Ultra GPU率先采用HBM4E,单卡内存带宽突破12.8TB/s,配合第三代Transformer引擎,在GPT-4o模型的千亿参数训练中,吞吐量较H200提升65%,迭代周期缩短至18小时。这一性能跃升得益于HBM4E的三大特性:

  1. 异构缓存整合:逻辑基板内置的L3缓存与HBM4E内存直接互联,数据预取延迟降低至3ns;
  2. 带宽弹性扩展:支持双通道独立配置,可按需分配带宽至计算或数据传输任务;
  3. 安全增强协议:内置ECC校验与物理不可克隆函数(PUF)加密,满足AI大模型训练的隐私合规需求。

市场博弈:制程与封装的“双线战争”

SK海力士的领先优势正面临三星与美光的双重挑战。三星电子计划在2025年Q4量产采用4nm逻辑基板的HBM4,通过“混合键合+TC-NCF”技术实现16层堆叠,带宽目标直指4TB/s;美光则押注可定制化基础芯片,联合Marvell推出HBM计算架构,支持内存到内存的直接传输(M2M)。

制程工艺层面,SK海力士在HBM4E量产阶段仍采用成熟的1bnm工艺,而三星已将第六代10nm级(1cnm)工艺导入HBM4测试。不过,SK海力士通过台积电代工逻辑基板,规避了自身在先进制程上的短板,其“存储+代工”的生态合作模式被行业视为破局关键。

行业影响:AI算力成本曲线的“拐点”

据TrendForce测算,HBM4E的量产将推动AI服务器单卡成本增加40%,但训练千亿参数模型的电费支出可下降55%。特斯拉Dojo超级计算机已宣布下一代V2芯片将集成HBM4E,预计其自动驾驶训练集群的能效比将突破100GFLOPS/W。

SK海力士计划在2026年推出16层堆叠的HBM4E Pro,容量达64GB,带宽突破5TB/s,目标直指OpenAI的下一代GPT-6模型。随着AI大模型参数规模以每18个月10倍的速度增长,HBM4E的技术路线图或将重新定义AI算力的“摩尔定律”。

结语
从HBM3E到HBM4E的跨越,不仅是带宽与密度的数字游戏,更是存储与计算架构的范式革命。SK海力士通过逻辑基板异构集成、动态带宽分配等创新,将HBM从“显存”升级为“算力引擎”,为AI大模型的万亿参数时代铺平道路。这场由韩系厂商主导的技术突围,或将改写全球半导体产业的价值链分配。

点击在线客服     Copyright © 深圳市金鸣科技有限公司    粤ICP备17115101号-1     金鸣表格文字识别,公安备案

粤公网安备 44030702001395号

金鸣识别智能体
Icon
金鸣表格文字识别助手
人工智能识别准 | 批量合并更便捷
欢迎您!我是基于百度文心一言大模型的金鸣识别智能体,请说出您遇到的问题。
正在思考,请稍候.....