Cerebras、4兆トランジスタの3世代ウェーハスケールAIチップを開発
Cerebras Systems社は、4兆トランジスタを集積したウェーハスケールのAIアクセラレータチップ「WSE-3」を開発した。300mmウェーハから21cm角に切りDった半導で、ivのWSE-2(参考@料1)での7nmから5nmプロセスをW(w┌ng)して集積度を屬欧拭このウェーハスケールICを組み込んだAIコンピュータ「CS-3」を64組み込む「Condor Galaxy 3」を戦S的パートナーであるG42と共同で開発中である。

図1 3世代のウェーハスケールIC「WSE-3」を開発 出Z:Cerebras Systems
ウェーハスケールIC「WSE-3」を搭載したAIコンピュータCS-3の性Δ蓮△海譴泙悩嚢發CS-2と同じ消J電、同じ価格で比べると性Δ2倍になっているという。このコンピュータCS-3は、最も巨j(lu┛)なAIモデルを学{させることを`的としたマシンで、最j(lu┛)24兆パラメータのAIモデルを学{させることを狙っている。同社のウェーハスケールAIチップは、1世代が16nm(参考@料2)、2世代7nm、3世代が5nmとやってきた。5nmプロセスのICファウンドリはTSMCだと、このAIチップを搭載したコンピュータを?y┐n)作しているG42がニュースリリースで述べている(参考@料3)。
ウェーハスケールICのチップC積は46,225mm2と巨j(lu┛)で、スパース線形代数(ゼロのHい娣`)に最適化された90万コアが集積されている。AIコンピュータとしての性Δ125 Peta FLOPS(1Petaは10の15乗)、オンチップメモリの容量は44 GB、外陬瓮皀蝓HBM)は1200 GBで、メモリのバンド幅は21 Peta Bytes/sとなっている。
Cerebrasはまた、AIアクセラレータCS-3を学{に使い、QualcommのクラウドAI 100 Ultraを推bにAIを使えば、約10倍のコスト・パフォーマンスがu(p┴ng)られたとしている。
アブダビを拠点とするAIコンピュータ企業のG42社は、CerebrasのAIチップWSE-3を搭載したAIアクセラレータ「CS-3」を64並べたAIコンピュータ「Condor Galaxy 3」を試作した。CG 3には約5800万個のAIに最適化したコアを?y┐n)△─?6 Exa FLOPS(Floating Operations Per Second)という高性Δ鯣ァすると見積もっている。Exaは10の18乗をT味する単位。
2023Q11月現在における世cのスーパーコンピュータランキングTOP500で最も高]のスパコンは、(sh━)Oakridge 国立研|所の1.1 Exa FLOPSであるから、CS-3はその1桁屬寮Δ箸覆襦ちなみに日本の富tは昨Qにき4位の0.44 Exa FLOPSとなっている。
「Condor Galaxy 3」を使えばj(lu┛)模言語モデルLlama-70B(700億パラメータ)を学{させるのにわずか数日で済むという。1750億パラメータのLLMであるGPT-3をNvidiaのGPUであるA100では学{するのに300日かかったと言われている。
これまでのCondor Galaxy 1と2は、(sh━)国カリフォルニアΔ棒されているが、Condor Galaxy 3はテキサスΕ瀬薀垢棒される予定だという。
CerebrasのCS-1とCS-2のAIアーキテクチャは、来のフォンノイマン型コンピューティングではなく、ニューラルネットワークのワークフローと同様、データフローコンピューティングである。CS-3もそのアーキテクチャを採していると思われるが、らかにしていない。
参考@料
1. 「7nmプロセスで]したウェーハ模の巨j(lu┛)なAIチップ」、セミコンポータル (2021/04/28)
2. 「Cerebras社、ウェーハ模のAIチップを実△靴織灰鵐團紂璽燭鯣売」、セミコンポータル (2019/12/20)
3. "G42 and Cerebras Break Ground on Condor Galaxy 3, an 8 exaFLOPs AI Supercomputer", G42 (2024/03/13)