サムスン、超大型AI用高性能DRAM「HBM3E」を公開…SKとの競争激化へ

サムスン電子がチャットGPTのような超巨大人工知能(AI)時代を主導する次世代メモリソリューションを多数公開した。

サムスン電子は20日(現地時間)、米国シリコンバレーのマクエナリーコンベンションセンターでグローバル情報通信(IT)顧客とパートナーなど600人余りが参加した中、「メモリーテックデー」を開き、超高性能HBM3E DRAMである「シャインボルト」(Shinebolt)を初めて披露した。

※サムスン電子の発表原文(ハングル):https://www.newswire.co.kr/newsRead.php?no=976744

高帯域幅メモリを意味するHBM(High Bandwidth Memory)は、複数のDRAMを垂直に接続してデータ処理速度を革新的に引き上げた高性能製品だ。

10月20日(現地時間)、米国シリコンバレーで開かれた「サムスンメモリテックデー2023」で、メモリ事業部のイ・ジョンベ社長が発表している様子。

AI分野のデータ処理に使われるグラフィック処理装置(GPU)に搭載され、チャットGPTの登場以来、大きな注目を集めてきた。HBM5世代であるHBM3Eはまだ量産されていない製品だ。

「シャインボルト」は容量が前世代の1.5倍水準で、毎秒最大1.2テラバイト(TB)以上のデータを処理することができる。これは1秒に30ギガバイト(GB)容量のUHD映画40本を処理できる速度だ。電力効率は10%向上した。

現在、サムスン電子は4世代製品であるHBM3 8段と12段製品を量産中で、HBM3Eも顧客にサンプルを提供していると説明した。量産日程は明らかにしなかった。

これにより、HBM市場をめぐる競争が激化する見通しだ。SKハイニックスはHBM3Eの開発を完了し、性能検証のためにNVIDIAにサンプルを供給し始めた。SKハイニックスが来年上半期から量産に入る中、米国のメモリメーカーであるマイクロンがHBM市場への進出を宣言し、年内の量産を目標にしている。

台湾の市場調査会社トレンドフォースによると、今年のグローバルHBM市場シェアは、SKハイニックスとサムスン電子がそれぞれ46~49%のシェアで接戦を繰り広げると予想されている。マイクロンは3~5%だ。