快捷入口
收起
在线客服
企业直呼
(0755) 2390 4951 转分机 8088
快速询价
微信
公众号
首页 新闻资讯 两大芯片龙头:这类芯片已售罄!订单排到2026年

两大芯片龙头:这类芯片已售罄!订单排到2026年

来源:芯三板            发布时间:2024-07-01 15:53:12

随着英伟达的AI芯片持续热销,已通过英伟认证的美光和SK海力士HBM芯片也愈加抢手。据存储芯片供应链透露,上游存储原厂HBM订单2025年预订一空,订单能见度可达2026年一季度。SK海力士、美光2024年HBM提前售罄,2025年订单也接近满载。

HBM芯片订单预定一空

据存储芯片供应链透露,由于英伟达的AI芯片供不应求,顺利打入供应链的SK海力士、美光2024年HBM提前售罄,2025年的产能也被预订一空,订单能见度可达2026年一季度。预计SK海力士、美光合计供应给英伟达的HBM月产能约当6万多片。

该消息也得到了美光和SK海力士的验证,美光在发布最新一季财报也直接表示,2024-2025年HBM内存芯片已经售罄。

SK海力士CEO早在5月份就表示,公司按量产计划2025年生产的HBM产品基本售罄,主要由于AI爆发对先进存储产品HBM的需求。此前,公司宣布其2024年HBM的产能已被客户抢购一空。

此外,由于HBM排挤太多DRAM产能,势必将推动DDR5价格逐步拉升。模组厂认为,DDR5价格持续走扬态势明确,预期到了年底前还有10~20%涨幅,但若DDR5价格太高,反而可能拖延市场渗透率的起飞速度,影响下游客户采用的意愿。

供不应求!两大芯片龙头加紧扩产

AI热度的攀升让HBM产销持续走俏,甚至供不应求,为了满足英伟达的需求,两大龙头企业都在加紧扩产。

有消息称SK海力士正在大幅扩产第5代1b DRAM,以应对HBM与DDR5 DRAM的需求增加。按照晶圆投入量看,公司计划将1b DRAM月产能从今年一季度的1万片增加到年末的9万片,到明年上半年进一步提升至14万-15万片,是今年一季度产能的14-15倍。

SK海力士母公司SK集团还表示,到2028年,SK海力士将投资103万亿韩元(746亿美元),以加强其芯片业务,专注于人工智能。其中约80%,即82万亿韩元,将用于投资高带宽内存芯片(HBM)。

虽然这是SK首次披露其到2028年的投资计划,但SK海力士今年已宣布了一系列投资计划,包括斥资38.7亿美元在印第安纳州建设先进封装工厂和人工智能产品研究中心。SK海力士还将斥资146亿美元建造一座新的存储芯片综合设施,并继续进行其他国内投资,包括在龙仁半导体集群的投资。

美光目前也在位于爱德荷州波夕总部扩充HBM相关研发设施,当中包括生产及验证线。美光规模最大的HBM生产基地位于中国台湾台中市,此处也在扩产中。美光已设定目标,准备在2025年底前将HBM市占拉高三倍以上至24~26%,跟该公司传统DRAM的市占相去不远(约23~25%)。

美光执行长Sanjay Mehrotra表示,美光预期明年将大幅增加资本支出、2025会计年度营收的34-36%将投入资本支出,藉以支持HBM封装和测试设备、晶圆厂和后端设施兴建以及技术升级投资以支持需求成长。

HBM成为AI服务器搭载标配

HBM即高带宽存储器,作为基于3D堆栈工艺的高性能DRAM,打破内存带宽及功耗瓶颈。通过使用先进封装(如 TSV 硅通孔、微凸块)将多个 DRAM芯片进行堆叠,并与GPU一同进行封装,形成大容量、高带宽的 DDR 组合阵列。

在高性能 GPU 需求推动下,HBM 目前已经成为 AI 服务器的搭载标配。AI 大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升使得 AI 服务器对芯片内存容量和传输带宽提出更高要求。HBM具备高带宽、高容量、低延时和低功耗优势,目前已逐步成为 AI 服务器中GPU 的搭载标配。英伟达推出的多款用于 AI 训练的芯片 A100、H100 和 H200,都采用了 HBM 显存。AMD的 MI300 系列也都采用了 HBM3 技术,MI300A 的容量与前一代相同为 128GB,而更高端的MI300X则将容量提升至 192GB,增长了 50%,相当于 H100 容量的2.4 倍。

HBM 市场目前被三大原厂占据,其中SK海力士份额领先,占据 HBM市场主导地位。据TrendForce数据,三大原厂海力士、三星、美光 2022 年 HBM 市占率分别为50%、40%、10%。2023 年年初至今,生成式AI市场呈爆发式增长,大模型参数量、预训练数据量攀升,驱动 AI 服务器对高带宽、高容量的HBM需求迅速增加。


阅读:182