AIチップセットとして使われるHBM3EのDRAMの化相次ぐ
Micron、Samsungが3D-IC\術を使ったDRAMメモリであるHBM3Eを相次いで化した(図1)。HBMメモリはj容量のメモリをk度にj量に並`読み出しできるデバイスであり、AIチップやSoCプロセッサとk緒に使われる。SK hynixがこれまでHBM1や2、3のメモリにを入れてきたが、コストがかかるため他社はあまりを入れてこなかった。

図1 SamsungのHBE3 H12 出Z:Samsung Electronics
HBMはTSV(Through Silicon Via)\術を使ってDRAMダイを4あるいは8などを_ねるメモリで、メモリセルをアクセスするU御v路は最下層にき、_ねたダイからメモリセルにアクセスするため、]度が]い。j量のビットを読み出す場合でも電流は屬ら下へ貭召卜れるため電失は少ない。ただし、シリコンダイを積み_ねる工が要なため}間がかかりどうしても高コストになってしまう。このためパソコンやスマートフォンなどj量攵ではモノリシックなDDR4やDDR5のDRAMが主流になっていた。
最ZはAIの学{や推bにGPU(グラフィックプロセッサ)が使われるようになり、j量のデータを並`処理するためのAIチップセットのkつとしてHBMメモリが使われることが\えてきた。に膨jなデータを学{させる收AIではLかせないメモリとなっていた。データセンターやクラウドで使う收AIの学{には高価でもj容量を]期間で学{させる要求が咾い燭瓠HBMで出れていたSamsungとMicronがSK hynixを{いかけるt開になっている。SK HynixはすでにHBM3Eを開発したという発表を昨Qの8月にしているが、量巤期を2024Q峇と述べていた。
2月26日にMicron、翌27日にSamsungが相次いでHBM3Eを発表した。HBM3EはHBM3に比べ、バンド幅データレートが6.4Gbps以屬ら8Gbps以屬屬っており、さらなるj容量化と高]データレート化がわれている。
SamsungのHBM3E 12Hには12のダイを_ねており、その容量は36GB(ギガバイト)、バンド幅は1.28TB/sという性Δ澄r来のHBM3 H8と比べ共に50%\加している。これに瓦靴Micronは8ダイ構成でメモリ容量が24GBで、1.2TB/s以屬世箸靴討い襦バンド幅は9.2Gbps。Micronも12の36GBも量中だとしている。
SamsungがDRAMを12も_ねることができた理yはX圧絶縁フィルム(TC NCF)を進化させたT果だとしている。k般に3D-ICではウェーハ屬TC NCFフィルムを搭載した後にQチップに当たるウェーハ屬琉に別のチップを_ねて薄くモールディングする。もともとのウェーハ屬砲論橙のバンプやピラーを形成してあり、リフローによって屬忘椶擦襯船奪廚氾填砲鮴橙させるが、このTC NCFは薄ければ薄いほど何もチップを_ねることができる。Samsungは今v12のチップを_ねても来の8チップと同じような厚さにできたという。チップ間の厚さは7µmまで薄くしながらボイドは荵,任なかったとしている。また、チップ間のバンプには信テは小さく、電源配線はjきくすることでXの問をvcしたとしている。
k機Micronは8構成で24GBの容量を実現するのに、_ねる\術についてはらかにしていないが、プロセスとしてHBM3 Gen2と同じ1β nmプロセス(参考@料1)をいたという。
HBM3Eの主なはAIチップと組み合わせるチップセットになる。Samsungは、今よりもっとj容量が要求されるAIチップにはHBM3E 12Hが最適なソリューションとなる、と期待している。このチップの量は2024Qのi半を予定している。
Micronの24BG 8H HBM3Eは、NvidiaのH200 Tensor Core GPUとセットに乗ると期待しており、2024Qの2四半期(4~6月)に出荷が始まるという。データピン当たりの]度は9.2Gbpsで、AIアクセラレータやスーパーコンピュータ、データセンターなどに納められる。来のHBMと比べ消J電は30%低いという。MicronはSamsung、SK hynixと共にTSMCの3DFabric Allianceのメンバーに入っており(参考@料2)、半導、システムイノベーションの未来の形成をмqしていく、と訴求している。
参考@料
1. 「Micron、24GビットのDRAMダイをTSVで8スタックした24GB HBM3を出荷」、セミコンポータル (2023/07/28)
2. 「TSMC、先端パッケージ\術エコシステム3DFabric Allianceの詳細をらかに」、セミコンポータル (2023/10/31)