发布时间: 2024-05-10 17:00:42 来源:电竞比分投注-电磁灶
近期,贮存芯片详尽区分范畴HBM(高带宽存储器)成为最强风口之一,相关概念股强势迸发,不少出资者将HBM比作上半年的CPO。
据商场音讯,跟着AI芯片比赛的加重,全球最大的两家存储器芯片制作商三星和SK海力士正准备将HBM产值进步至2.5倍。除了韩国双雄以外,全球第三大DRAM公司美光也将从2024年开端活跃瞄准HBM商场。
值得一提的是,AI大模型的鼓起催生了海量算力需求,而数据处理量和传输速率大幅度的进步使AI服务器对芯片内存容量和传输带宽提出了更高的要求,因而,HBM在此布景下应运而生。HBM需求迸发,也代表着国内HBM供给链企业有望充沛获益。
那么,HBM究竟是什么?商场空间有多大?哪些公司在布局?笔者在文末整理出了HBM范畴中心A股概念股。
一般来说,半导体存储器可分为易失性存储器和非易失性存储器。其间,易失性存储器又可分为静态随机存储器(SRAM)和动态随机存储器(DRAM),而HBM便是动态随机存储器的其间一种。
HBM是英文High Band width Memory的缩写,意为高带宽存储器,是一种面向需求极高吞吐量的数据密集型运用程序的DRAM,效果类似于数据的“中转站”,便是将运用的每一帧,每一幅图画等图画数据保存到帧缓存区中,等候GPU调用。
简略地说,HBM便是一款新式的CPU/GPU内存芯片(即“RAM”),将很多个DDR芯片堆叠在一起后和GPU封装在一起,完成大容量,高位宽的DDR组合阵列。
跟着AIGC技能运用的加快速度进行开展,AI服务器与高端GPU需求不断上涨,并有望继续推进HBM商场高速成长。
与传统DDR存储器不同,HBM运用硅通孔(TSV)和微凸块笔直堆叠多个DRAM芯片,并经过封装基板内的硅中介层与GPU直接相连,然后具有高带宽、高容量、低延时与低功耗等优势,相同功耗下其带宽是DDR5的三倍以上。因而,HBM突破了内存瓶颈,成为当时AI GPU存储单元的抱负计划和要害部件。
依据TrendForce的数据,估计2023年全球AI服务器(包括搭载GPU、FPGA、ASIC等)出货量近120万台,同比增加38.4%,占全体服务器出货量近9%,估计2026年出货量达237万台,2022-2026年复合增速为29%。
现在英伟达GPU为AI服务器商场搭载干流,市占率约60~70%,英伟达中高端GPU H100、A100选用HBM的浸透率挨近100%。
现在,HBM商场首要被全球前三大DRAM厂商占有,依据TrendForce的数据,2022年SK海力士HBM市占率为50%,三星的市占率约40%、美光的市占率约10%。
作为AI芯片的干流解决计划,跟着职业的继续迸发,HBM的远景越来越清晰,其也受到了存储巨子的高度重视。
自2013年SK海力士初次成功研制HBM以来,三星、美光等存储巨子也纷繁入局,展开了HBM的晋级比赛,现在HBM已从第一代(HBM)晋级至第四代(HBM3)。据报道显现,三星正在向AMD供给HBM3和交钥匙封装服务,并完成了与首要客户关于2024年HBM供给的商洽。
SK海力士作为韩国的存储芯片双雄之一,在技能布局上与三星齐头并进,在本年8月向Nvidia供给了HBM3e的样品,并正在向AMD供给HBM3。与此同时,台积电也宣告将CoWoS产能扩展两倍,以期更好地支撑水涨船高的HBM需求。
全体来看,HBM产业链首要由IP、上游资料、晶粒规划制作、晶片制作、封装与测验等五大环节组成。因为世界大厂均选用IDM形式,芯片的规划、制作和封测都由大厂一手包办,国内厂商首要处于上游设备和资料供给环节。
笔者依据Choice数据、研报以及上市公司资讯等信息挑选出了29只HBM中心A股概念股。其间,华海诚科2023年8月出资者联系活动记载显现,公司的颗粒状环氧塑封料(GMC)可以适用于HBM的封装,相关这类的产品现已过客户验证,现处于送样阶段。到11月20日,公司股票价格11月以来现已翻两倍。
危险提醒:本文所触及的内容不确保数据完整性与准确性,剖析定论仅供参考,所触及种类均不构成实践出资操作运用主张。股市有危险,出资需谨慎。本文所涉的文章观念,仅代表笔者个人自己的观念,不代表本渠道的任何态度,不构成任何出资主张。