去年的CPU板块是掀起一场波澜壮阔的上涨行情,而同样受益的重要硬件存储器GDDR和HDM一样有望复刻CPO的翻倍大行情。今天就来详细介绍一下HBM存储器的产业前景。
无论是GDDR还是HBM都是常说的内存。去年全球掀起了AI大模型的训练热潮,大模型的快速迭代和竞争推升算力和高性能AI服务器需求,所以大容量、高带宽、高位宽、低能耗的内存成为AI服务器的首选。所以性能更具备优势的HBM存储器逐渐成为AI服务器的标配和内存技术升级的方向。
从具体性能参数来看,HBM通过芯粒堆叠垂直连接多个DRAM,所以在带宽、1/0速率、容量等有较大突破,性能远超GDDR。在带宽上HBM内存仅一个多样的传输速率就可以达到100Mbps,而最先进的GDDR5整体才25GB/s,明年将落地HBM3e速率更是超过1TB。
显存位宽HBM也是GDDR5的4倍达到了1024GB,而且时钟频率HBM也更小。由于HBM采用3D堆叠,HBM芯片面积仅是GDDR5面积的1/3,相同的空间HBM能实现更大的容量同时也降低了功耗,所以HBM当下被视为IP存储器最理想解决方案。
目前HBM逐渐成为AI服务器的标配,像英伟的A10、AT100和E200都采用了HBM现存,其最新的E200芯片搭载了速率和容量更高的HBM3e,而且HBM性能跟随AI服务器性能升级迭代。
自2016年第一代HBM3e发布,截止到目前已经迭代到第五代HBM3e,最新款HBM3e性能卓越,A200是首款搭载HBM3e的GPU。相比120Hz推理速度提升40%是90%,而能耗最高降低一半。后续TrendEorce销量是跟随高性能AI服务器出货量的增长而增长,可以说算力和AI服务器的需求驱动HBM价量提升。
根据TrendEorce数据,全球AI服务器出货量预期将从2022年的85.5万台增至2026年的236.9万台,复合增速高达29%。而每个GPU搭载的HBM数量也将从4颗增至6颗,单个HBM容量提高至24GB以上,但HBM价值量也会相应提升。
价量提升下,全球HBM市场规模有望从去年的15亿美元增至2030年的576亿美元,规模有望翻38倍。即便当下HBM不断涨价,但产品却是供不应求。去年HBM3价格涨幅超60%,SK海力士11月透露出其2024年的HBM3与HBM3e产能已经全部售罄,并且正与客户签订2025年订单,所以现有产能供应紧张。
目前HBM供需的主要矛盾是短期高端HBM产能不足,无法及时满足下游需求。像谷歌、谷歌、obanda等对于AI大模型的迭代竞争激烈,家具HBM的抢购场今年三大厂家HBM都会有大幅扩产。海力士透露今年扩产2倍,而且大部分增量产能用于HBM3e生产。
三星今年也将扩产2.5倍,以投资105亿韩元购买建筑及设备用于HBM3e生产,而且计划追加投资万亿韩元在天安厂新建封装线用于HBM扩产。美光也将增加HBM3e等先进节点产能,几大厂家大幅扩产将有望拉动先进封装设备和材料的增长。
下期视频来看看HBM内存产业链的情况,来了解一下在产业链上有哪些中国公司,看看他们在产业链上优势如何。