高带宽内存

计算机随机存储器

高带宽内存(英语:High Bandwidth Memory,缩写HBM),是三星电子超微半导体SK海力士发起的一种基于3D堆栈工艺的高性能DRAM,适用于高存储器带宽需求的应用场合,与高性能图形处理器、网络交换及转发装置(如路由器交换器)、高性能数据中心的AI特殊应用集成电路结合使用,在 CPU 中用作包内高速缓存,在即将推出的 CPU 和 FPGA 中用作包内 RAM,还用于某些超级计算机(如 NEC SX-Aurora TSUBASA 和富士通 A64FX)。[1][2]首款HBM内存晶片由SK海力士于2013年生产,[3]首款使用高带宽内存的装置是AMD Radeon Fury系列显示核心[4][5]

采用高带宽内存的显卡横截面概略图,更多详见硅穿孔工艺(TSV)

2013年10月,高带宽内存正式被JEDEC采纳为业界标准。[6]第二代高带宽内存(HBM2)于2016年1月被JEDEC采纳。[7]NVIDIA在该年发表的新款旗舰型Tesla运算加速卡 —— Tesla P100、AMD的Radeon RX Vega系列IntelKnight Landing也采用了第二代高带宽内存。

技术细节

编辑

相比较DDR4GDDR5而言,高带宽内存以更小的体积、更少的功率达到更高的带宽。[8]通过堆叠多达八个DRAM晶片裸晶(即三维集成电路)和一个可选的基本晶片(包括缓冲电路和测试逻辑)来实现。[9]堆栈通常通过基板连接到 GPU 或 CPU 上的内存控制器。另外,存储器晶片也可以直接堆叠在CPUGPU晶片上。[10][11]堆栈内,晶片通过硅穿孔(TSV)及微突起英语microbump相连接的可选基底裸晶,附带内存控制器。高带宽内存技术原理上与美光科技开发的混合内存立方体英语Hybrid Memory Cube接口类似,但不相兼容。[12][13]

高带宽内存内存总线与其他DRAM内存(如DDR4或GDDR5)相比更加宽阔。在拥有四块DRAM裸晶的高带宽内存堆(4-Hi)上,每个裸晶均有两条128位元的信道,四块加起来总共有八条。搭载四块4-Hi高带宽内存堆的图形卡(GPU)将拥有4096位元宽的内存总线。做个比较,GDDR内存给图形显卡的信道宽度为32位元,其内存接口则为512位元。[14]高带宽内存最高支持每个封装4GB的内存。

相比较DDR4或GDDR5而言,内存的最大连接数越多,高带宽内存就需要以更新的方法连接至图形处理器(或其他处理器)。[15]AMD和英伟达均使用为特定目的打造的硅片——中介层,来连接内存及图形处理器。中介层需要将内存与处理器放置在相邻的位置,以减短内存路径。但由于半导体器件制造的制造费用比印刷电路板的高出不少,客户也需花费更多金钱购买此类产品。

接口

编辑

高带宽内存DRAM需要将宿主计算裸晶与分为多个独立信道的分布式接口紧密结合起来。这些信道相互之间完全独立,且不一定同步。高带宽内存DRAM使用宽接口架构来执行高速、节能的计算操作。高带宽内存DRAM使用500 MHz的差分时钟 CK_t / CK_c(前缀“_t”表示“真”(True)、“正值”(Positvie)及差分对组件(Components of differential pair),“_c”则代表“互补”部分(Complementary))。指令在CK_t和CK_c的信号上升沿注册。每个信道以双数据速率(DDR)管理128位元的数据总线。高带宽内存支持每针1 GT/s英语GT/s(1位元)的传输速率,总体封装带宽则能达到128 GB/s。[16]

第二代高带宽内存(HBM2)指定了每堆8个裸晶及每帧传输速度上至2 GT/s英语GT/s的标准。为保持1024位元宽的访问,第二代高带宽内存得以在每个封装中达到256GB/s的内存带宽及上至8GB的内存。业界预测第二代HBM在极其需要性能的应用程式(如虚拟实境)中至关重要。[17]

2016年1月19日,三星集团宣布进入大量生产第二代高带宽内存的早期阶段,每堆拥有高达8GB的内存。[18][19]SK海力士同时宣布于2016年8月发布4GB版本的内存。[20]

2018年下半年,JEDEC宣布升级第二代HBM标准,提升带宽及其能力。[21]官方标准中明确每堆最高307GB/s(有效数据速率则为2.4Tbit/s),但就实际而言,市面上已早有以此速度运行的产品。除此之外,标准还添加了对12-Hi堆的支持,使每堆24GB的内存成为可能。

2019年3月20日,三星发布了Flashbolt HBM2E,每个堆栈有8个晶片,传输速率为3.2 GT/s,每个堆栈总共提供16 GB和410 GB/s。[22]8月12日,SK海力士宣布推出HBM2E,每个堆栈有8个晶片,传输速率为3.6 GT/s,每个堆栈总共提供16 GB和460 GB/s,[23][24]2020年7月2日,宣布开始量产。[25]

第三代高带宽内存(HBM3)于2016年正式发布,[26][27]此代标准扩大了内存容量、提升了内存带宽(512GB/s或更高)并降低了电压与价格。人们猜测高带宽内存的密度增加是因为裸晶数量及其密度的增加导致。业界尚未宣布正式发布日期。三星专家预测在2020年前进行第三代高带宽内存的量产。

 
HBM截面简图

为了打造能进行百亿亿次计算英语Exascale computing的高性能电脑,慧与科技预测OPGHC HBM3+及HBM4将在2022年至2024年间发布。更为强大的堆叠能力及更高的物理密度理论上应能让每块插槽的可寻址内存及运行速度更上一层楼。HBM3+的计划速度为4 TB/s,每块插槽的计划可寻址内存(做个类比,AMD的高端EPYC晶片在每个插槽上可以150GB/s的速度寻址)。[28]有了32 Gbit(4 GB)的DRAM裸晶,再加上HBM3+每堆上的16片裸晶,每个HBM3+组件理论上能提供64GB的容量。

历史

编辑
 
AMD Fiji英语Graphics Core Next,首款使用高带宽内存技术的图形处理器

早在2008年,AMD就开始着手研发高带宽内存来解决日益增长的能源使用及电脑内存的形状因数。其中,AMD高级研究员布赖恩·布莱克(Bryan Black)解决了裸晶堆叠问题。AMD还从内存行业(SK海力士)、插入器行业(联华电子)及封装行业(日月光半导体)的合作伙伴中获得了帮助,让高带宽内存从设想变成现实。[29]2015年,SK海力士在韩国利川市的工厂正式开始量产。

在2010年AMD与SK海力士共同发表提案后的2013年10月,高带宽内存被JEDEC设立为业界标准(JESD235)。[6]首款使用高带宽内存的装置是AMD Radeon Fury系列显示核心,其驱动了AMD Radeon R9 Fury X。[30][4][31]

第二代高带宽内存则于2016年1月被JEDEC认可为业界标准(JESD235a)。[7]首款使用第二代高带宽内存技术的图形处理器是于2016年4月发布的英伟达 Tesla P100。[32][33]

未来

编辑

在2016年8月的热门晶片英语Hot Chips上,三星与海力士均宣布了下一代高带宽内存技术。[34][35]两家公司都预计下一代产品的裸晶密度、带宽得到提升,同时减少能源消耗。三星还宣布将发布低成本版本的高带宽内存,此类产品将移除缓存裸晶、减少硅穿孔,并将总带宽降至200GB/s。

另请参阅

编辑

参考文献

编辑
  1. ^ Shilov, Anton. Intel Confirms On-Package HBM Memory Support for Sapphire Rapids. Tom's Hardware. December 30, 2020 [January 1, 2021] (美国英语). 
  2. ^ ISSCC 2014 Trends 互联网档案馆存档,存档日期2015-02-06. page 118 "High-Bandwidth DRAM"
  3. ^ History: 2010s. SK Hynix. [7 March 2023]. 
  4. ^ 4.0 4.1 Smith, Ryan. The AMD Radeon R9 Fury X Review. Anandtech. 2015-07-02 [2016-08-01]. (原始内容存档于2016-07-22). 
  5. ^ Morgan, Timothy Prickett. Future Nvidia ‘Pascal’ GPUs Pack 3D Memory, Homegrown Interconnect. EnterpriseTech. 2014-03-25 [2014-08-26]. (原始内容存档于2014-08-26). Nvidia will be adopting the High Bandwidth Memory (HBM) variant of stacked DRAM that was developed by AMD and Hynix 
  6. ^ 6.0 6.1 High Bandwidth Memory (HBM) DRAM (JESD235)页面存档备份,存于互联网档案馆), JEDEC, October 2013
  7. ^ 7.0 7.1 JESD235a: High Bandwidth Memory 2. 2016-01-12 [2017-06-04]. (原始内容存档于2019-06-07). 
  8. ^ HBM: Memory Solution for Bandwidth-Hungry Processors 互联网档案馆存档,存档日期2015-04-24., Joonyoung Kim and Younsu Kim, SK Hynix // Hot Chips 26, August 2014
  9. ^ Sohn et.al. (Samsung). A 1.2 V 20 nm 307 GB/s HBM DRAM With At-Speed Wafer-Level IO Test Scheme and Adaptive Refresh Considering Temperature Distribution. IEEE Journal of Solid-State Circuits. January 2017, 52 (1): 250–260. Bibcode:2017IJSSC..52..250S. S2CID 207783774. doi:10.1109/JSSC.2016.2602221. 
  10. ^ What's Next for High Bandwidth Memory. 17 December 2019. 
  11. ^ Interposers. 
  12. ^ Where Are DRAM Interfaces Headed? 互联网档案馆存档,存档日期2018-06-15. // EETimes, 4/18/2014 "The Hybrid Memory Cube (HMC) and a competing technology called High-Bandwidth Memory (HBM) are aimed at computing and networking applications. These approaches stack multiple DRAM chips atop a logic chip."
  13. ^ Where Are DRAM Interfaces Headed?页面存档备份,存于互联网档案馆) // EETimes, 4/18/2014 "The Hybrid Memory Cube (HMC) and a competing technology called High-Bandwidth Memory (HBM) are aimed at computing and networking applications. These approaches stack multiple DRAM chips atop a logic chip."
  14. ^ Highlights of the HighBandwidth Memory (HBM) Standard页面存档备份,存于互联网档案馆). Mike O’Connor, Sr. Research Scientist, NVidia // The Memory Forum – June 14, 2014
  15. ^ Smith, Ryan. AMD Dives Deep On High Bandwidth Memory – What Will HBM Bring to AMD?. Anandtech. 2015-05-19 [2017-05-12]. (原始内容存档于2017-05-05). 
  16. ^ High-Bandwidth Memory (HBM) (PDF). AMD. 2015-01-01 [2016-08-10]. (原始内容存档 (PDF)于2019-03-18). 
  17. ^ Valich, Theo. NVIDIA Unveils Pascal GPU: 16GB of memory, 1TB/s Bandwidth. VR World. [2016-01-24]. (原始内容存档于2019-07-14). 
  18. ^ Samsung Begins Mass Producing World’s Fastest DRAM – Based on Newest High Bandwidth Memory (HBM) Interface. news.samsung.com. [2019-07-08]. (原始内容存档于2019-06-21). 
  19. ^ Samsung announces mass production of next-generation HBM2 memory – ExtremeTech. 2016-01-19 [2019-07-08]. (原始内容存档于2019-07-14). 
  20. ^ Shilov, Anton. SK Hynix Adds HBM2 to Catalog. Anandtech. 2016-08-01 [2016-08-01]. (原始内容存档于2016-08-02). 
  21. ^ JEDEC Updates Groundbreaking High Bandwidth Memory (HBM) Standard (新闻稿). JEDEC. 2018-12-17 [2018-12-18]. (原始内容存档于2018-12-18). 
  22. ^ Samsung Electronics Introduces New High Bandwidth Memory Technology Tailored to Data Centers, Graphic Applications, and AI | Samsung Semiconductor Global Website. www.samsung.com. [2019-08-22] (英语). 
  23. ^ SK Hynix Develops World's Fastest High Bandwidth Memory, HBM2E. www.skhynix.com. August 12, 2019 [2019-08-22]. 
  24. ^ SK Hynix Announces its HBM2E Memory Products, 460 GB/S and 16GB per Stack. 
  25. ^ SK hynix Starts Mass-Production of High-Speed DRAM, "HBM2E". 2 July 2020. 
  26. ^ Walton, Mark. HBM3: Cheaper, up to 64GB on-package, and terabytes-per-second bandwidth. Ars Technica. 2016-08-23 [2017-02-03]. (原始内容存档于2017-02-02). 
  27. ^ Ferriera, Bruno. HBM3 and GDDR6 emerge fresh from the oven of Hot Chips. Tech Report. 2016-08-23 [2017-02-03]. (原始内容存档于2017-02-04). 
  28. ^ 存档副本. [2019-07-08]. (原始内容存档于2019-04-01). 
  29. ^ [1]页面存档备份,存于互联网档案馆) High-Bandwidth Memory (HBM) from AMD: Making Beautiful Memory
  30. ^ Smith, Ryan. AMD HBM Deep Dive. Anandtech. 2015-05-19 [2016-08-01]. (原始内容存档于2016-08-11). 
  31. ^ [2]页面存档备份,存于互联网档案馆) AMD Ushers in a New Era of PC Gaming including World’s First Graphics Family with Revolutionary HBM Technology
  32. ^ Smith, Ryan. Nvidia announces Tesla P100 Accelerator. Anandtech. 2016-04-05 [2016-08-01]. (原始内容存档于2016-07-30). 
  33. ^ NVIDIA Tesla P100: The Most Advanced Data Center GPU Ever Built. www.nvidia.com. [2019-07-08]. (原始内容存档于2018-05-13). 
  34. ^ Smith, Ryan. Hot Chips 2016: Memory Vendors Discuss Ideas for Future Memory Tech – DDR5, Cheap HBM & More. Anandtech. 2016-08-23 [2016-08-23]. (原始内容存档于2016-08-24). 
  35. ^ Walton, Mark. HBM3: Cheaper, up to 64GB on-package, and terabytes-per-second bandwidth. Ars Technica. 2016-08-23 [2016-08-23]. (原始内容存档于2016-08-23). 

外部链接

编辑