三星相信在本十年结束之前,存储芯片将引领人工智能超级计算领域。该公司相信在 AI 服务器应用中,存储芯片将比英伟达的 GPU 表现更出色。
几个月前,Kye Hyun Kyung 表示三星将确保「以存储芯片为中心的超级计算机能在 2028 年问世。」现在,有报道称三星准备于今年大规模生产面向 AI 应用的高带宽存储(HBM)芯片。
据韩国媒体报道,三星计划在 2023 年下半年大规模生产面向 AI 的 HBM 芯片,并打算迎头赶上 SK 海力士,后者在 AI 存储芯片市场迅速取得了领先地位。
据 TrendForce 的数据,2022 年 SK 海力士在 HBM 市场占有约 50% 的份额,而三星占有约 40% 的份额。美光占有剩余的 10%。不过,HBM 市场整体上并不普及,仅占整个 DRAM 市场的约 1%。
尽管如此,随着 AI 市场的增长,对 HBM 解决方案的需求预计将增加,三星现在计划迎头赶上 SK 海力士,并大规模生产 HBM3 芯片以应对市场变化。无论「AI」这个词是否已经成为一个时髦词汇,AI 服务器正在变得更加普遍,而高带宽存储解决方案也越来越受到关注。
三星的 HBM3 解决方案通过垂直堆叠多个 DRAM 芯片,容量为 16GB 和 24GB。HBM3 的速度可达 6.4Gbps。