找回密码
 加入我们
搜索
      
查看: 4826|回复: 3

[通讯科技] SK海力士宣布2026年量产HBM4, 为下一代AI GPU做好准备

[复制链接]
发表于 2024-2-4 23:57 | 显示全部楼层 |阅读模式

HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算的影响下,HBM市场带给了存储器厂商新的希望,以推动收入的巨大增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位。

据Business Korea报道,SK海力士副总裁Chun-hwan Kim在SEMICON Korea 2024的主题演讲中表示,生成式AI市场预计将以每年35%的速度增长,而SK海力士有望在2026年大规模生产下一代HBM4。

SKhynix_HBM3E_T.jpg

HBM类产品前后经过了HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的开发,其中HBM3E是HBM3的扩展(Extended)版本,而HBM4将是第六代产品。HBM4堆栈将改变自2015年以来1024位接口的设计,采用2048位接口,而位宽翻倍也是是HBM内存技术推出后最大的变化。

目前单个HBM3E堆栈的数据传输速率为9.6GT/s,理论峰值带宽为1.2TB/s,而由六个堆栈组成的内存子系统的带宽则高达7.2TB/s。出于于可靠性和功耗方面的考虑,一般速度不会达到最高的理论带宽,像H200的峰值带宽为4.8TB/s。按照美光之前的说法,单个HBM3E堆栈的峰值带宽将提高到1.5TB/s。由于2048位接口需要在集成电路上进行非常复杂的布线,预计成本也会高于HBM3和HBM3E。

HBM4在堆栈的层数上也有所变化,除了首批的12层垂直堆叠,预计2027年存储器厂商还会带来16层垂直堆叠。此外,HBM还会往更为定制化的方向发展,不仅排列在SoC主芯片旁边,部分还会转向堆栈在SoC主芯片之上。

新闻来源:https://www.expreview.com/92196.html
发表于 2024-2-5 08:54 | 显示全部楼层
Dark Boo Bee
发表于 2024-2-5 15:49 | 显示全部楼层
游戏卡不会用上这玩意吧?
发表于 2024-2-5 22:40 | 显示全部楼层
这东西的专利好像还在rambus手里。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-2-2 12:54 , Processed in 0.008937 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表