SK海力士率先全球量产12层堆叠HBM3E,树立AI内存市场新标杆

科闻社 2024-09-26 14:16:11

2024年9月26日,韩国存储芯片巨头SK海力士宣布,率先在全球量产12层堆叠的HBM3E(高带宽内存),实现现有HBM产品中最大36GB容量的突破。这一壮举再次巩固了SK海力士在高性能内存领域,特别是在面向AI应用的高带宽内存市场中的领先地位。

SK海力士表示,HBM(High Bandwidth Memory,高带宽内存)是一种高附加值且性能卓越的内存,主要通过垂直堆叠多个DRAM芯片来显著提高数据处理速度。相较于传统的DRAM产品,HBM能够提供更高的带宽,适应日益增长的人工智能(AI)和高性能计算(HPC)需求。

HBM技术自2013年问世以来,经历了多次技术迭代,从最早的HBM1到HBM2、HBM2E、HBM3,再到如今的HBM3E。HBM3E作为HBM3的扩展版本,不仅在性能上大幅提升,容量也达到了新高度。现有HBM3E的最大容量为24GB,由8颗3GB的DRAM芯片垂直堆叠而成,而此次量产的12层堆叠产品将容量提升至36GB。SK海力士计划在2024年底前向客户提供这一划时代的产品,标志着公司技术实力的进一步强化。

SK海力士强调,HBM技术已成为高性能计算的核心之一,特别是在AI领域对内存的速度、容量和稳定性提出了极高的要求。此次量产的12层HBM3E内存不仅在容量上提升50%,还通过多项技术创新确保产品的稳定性和可靠性。

为了实现12层堆叠与现有8层产品同等厚度的同时,增加内存容量,SK海力士将单个DRAM芯片的厚度削减了40%。此外,公司采用了硅通孔技术(TSV)来实现芯片的垂直互联。该技术能够有效提升数据传输效率,确保在大规模AI模型运行时的高效计算。

HBM3E的速度也得到了显著提升。新产品的运行速度达到了9.6Gbps,是目前市场上最快的内存速度之一。以当前热门的LLM(大型语言模型)Llama 3 70B为例,搭载四个HBM3E模块的GPU每秒可以读取35次700亿个参数,大幅提高了AI模型的运行效率。

在高密度芯片堆叠过程中,稳定性和散热性能一直是挑战。SK海力士通过采用先进的MR-MUF(Molded Underfill)工艺,不仅解决了多层芯片堆叠可能导致的结构性问题,还在散热性能上相较上一代产品提升了10%。这一改进不仅有效增强了产品的热管理能力,还通过减少翘曲,确保了芯片在高负荷下的长期稳定性。

SK海力士自2013年推出全球首款HBM内存以来,一直是该技术的主要推动者。如今,随着HBM3E的量产,公司再次证明了其在AI内存领域的领先地位。SK海力士表示,未来将继续推进新一代内存产品的开发,以迎接AI时代日益增长的计算需求。

公司AI Infra业务负责人金柱善表示:“我们再一次突破了技术壁垒,证明了我们在AI内存市场中的独特主导地位。为应对未来AI时代的挑战,SK海力士将持续创新,确保在全球AI内存供应市场中的顶级地位。”

随着AI应用的快速发展,市场对高带宽内存的需求将持续增长。HBM技术凭借其高带宽、低功耗和高性能的优势,正在成为AI训练和推理任务中的关键技术支撑。SK海力士的HBM3E产品不仅满足了当前AI企业的需求,也为未来AI应用的扩展提供了坚实的技术基础。

此次SK海力士全球率先量产12层堆叠的HBM3E产品,不仅展示了其在高带宽内存技术上的卓越能力,也为未来的技术发展指明了方向。在全球内存市场竞争日益激烈的背景下,SK海力士通过不断的技术创新和市场拓展,进一步巩固了其作为行业领导者的地位。

随着AI、大数据和云计算等新兴技术的快速发展,高性能内存的需求将持续上升。SK海力士凭借其深厚的技术积累和敏锐的市场洞察力,必将在未来的竞争中占据更加重要的地位,为全球科技创新贡献力量。

*免责声明:以上内容整理自网络,仅供交流学习之用。如有内容、版权问题,请留言与我们联系进行删除。

0 阅读:4