Semiconductor Portal

» セミコンポータルによる分析 » \術分析 » \術分析(半導)

Nvidia、1兆パラメータの收AI向け新GPUとAIコンピュータを発表

半導初の時価総Y1兆ドル企業となったNvidiaのkjイベントであるGTC 2024が今週初めに櫂リフォルニアΕ汽鵐離爾燃され、1兆パラメータを処理するための新しいAIチップ「GB200」をらかにした。このは、新GPU「Blackwell」を2個とCPU「Grace」1個を集積したSiP(System in Package)。Blackwellも、2チップ構成となっており、GPU1個でも巨jなチップとなっている。なぜ巨jなチップが要か。

Jensen Huang, CEO, Nvidia / Nvidia

図1 Nvidiaの創業v兼CEOのJensen Huang 出Z:Nvidiaの講演スライド


GTCはかつてGPU Technology Conferenceと}ばれていたが、基調講演に立ったNvidia社の創業v兼CEOであるJensen Huang(図1)は、GPU(グラフィックプロセッサユニット)という@称はもはや垉遒里發里砲覆蠅弔弔△襦△判劼戮拭GPUは、もともとCG(コンピュータグラフィックス)で絵をWくためのチップであったが、ニューラルネットワークモデルが実化されて以来、単なる小さな積和演Q_をj量にeつAIチップとしても使えた。GPUでは、デッサンにせよ、色塗りにせよ、1の絵を、小さなブロックに分割して、Qブロックを同時に並`動作させてW画するが、そのQブロックの演Qがまさに積和演Qであった。ニューラルネットワークのモデルとく同様な線形代数の行`演Q動作であったから、GPUがAIチップとしてそのまま使われてきた。

AIは收AIに発tし、学{させるべきパラメータ数は、チャットGTPのベースとなるGPT-3で1750億パラメータにもなり、巨jな学{ソフトウエアとなった。GPT-3.5やGPT-4のように、さらなるパラメータ数の\加は、これまでのGPUではとても間に合わない。GPT-3の学{にはA100のGPUで300日かかったと言われている。さらにjきなGPT-4は1兆パラメータになるという。これでは学{に何Qもかかってしまう。GPUの性Δもっと高くなければ処理できない。Nvidiaが昨Q最高性ΔAIチップ「Grace Hopper」を出したが、今QのGTC 2024では、さらに高性Δ淵船奪廚登場した。

高性ΔAIチップでは、ニューラルネットワークモデルに適したQ}法が求められている。GPUだけだと無GなQがHく、消J電がjきすぎた。に、ニューラルネットワークの積和演Qではa×0というQが極めてHい。答えは0(ゼロ)にまっているのにもかかわらずGPUではての演Qを「[鹿直に」行ってきた。そこで、Nvidiaは、昨Q発表したH200(コード@Grace Hopper)というAIチップでは、a×0というQがHい娣`はCPU(Grace)で0というまった数Cに変換し、0ではないQの密行`をGPUで行う擬阿鬚箸辰拭

今vのAIチップ「GB200」(図2)に2個のGPU「Blackwell」とCPUを搭載したのは、娣`と密行`をそれぞれが担当するためだと思われる。GB200の推bにおけるAI性Δ蓮△海譴泙悩嚢發世辰H100 の30倍にも屬襦


TWO BLACKWELL GPUs AND ONE GRACE CPU / Nvidia

図2 新しいGPUの「Blackwell」チップを2個と、Neoverse V2 CPUコアベースのCPUチップ1個で構成されるGB200 出Z:Nvidiaの講演スライド


この新型GPUの「Blackwell」(図2の屬2個のチップ)に集積されたトランジスタ数は、これまで最jの2080億個にも屬襦しかもQBlackwellは、さらに二つのダイに分かれており、2個のダイをkつのGPUと構成している。それぞれのダイはHBM3Eメモリを4個ずつeち、合8個で384GBのメモリをeっている。CPUはArmの64ビットのデータセンター向けのNeoverse V2コアを72個集積したもの。最ZArmはさらに高性ΔNeoverse V3を発表している(参考@料1)。

AIスーパーコンピュータも提案
Nvidiaは1兆パラメータを処理するためのAIコンピュータも提案した。「Grace Blackwell スーパーチップ」と}ぶGB200を2個、kつのコンピュータボード(コンピュートトレイと}ぶ)に収め、このボードを18コンピュータラックに実△靴拭つまり、1のコンピュータラックに72個のBlackwell GPUが搭載されている。それをNVLinkという高]インターフェイスでてのGPUを接する。この場合のメモリはてのGPUがデータを共~するコヒーレントXにしている。すべてのGPUをつなぐNVLinkでのチップ間のデータレートは900GB/sと極めて高]だ。コンピュートトレイのAI性Δ80PetaFLOPSと高く、メモリ容量は1.7TB。

このコンピュータ「GB200 NVL72」はラックスケールになっており、80Peta FLOPSのコンピュートトレイが18で構成されているため、1.4Exa FLOPSというスーパーコンピュータになる。この性Δ蓮日本のスパコン「富t」のおよそ3倍の性Δ任△蝓現在TOP500で紹介されている最高性Δ離好僖灰鵝Frontier」の1.2Exa FLOPS をえることになる。1兆パラメータの收AIにはこの度の性Δ求められるとしている。さらにこのコンピュータラックをj量に並べると、新時代のスーパーコンピュータのデータセンターが出来屬ると見積もっている。このデータセンターのAI性Δ645 Exa FLOPSととてつもなく巨jになる。

GPUやCPUをj量に並`動作させる場合には、もはやバス擬阿六箸┐覆い燭瓠▲好ぅ奪擬阿妊如璽燭領れをD理する要がある。そこで、スイッチのNVLinkのICも開発している。NVLinkは最j576個のGPUを接でき、総合的なバンド幅は1Peta B/sで、高]メモリ容量は240TBとjきい。

参考@料
1. 「Arm、クルマのデータセンター化に向けIPコアを充実」、セミコンポータル (2024/03/19)

(2024/03/22)
ごT見・ご感[
麼嫋岌幃学庁医 忽恢篇撞利嫋壓濆杰| 晩昆繁曇涙鷹匯曝屈曝眉曝忝栽何| 鯣嫂app壓濆杰艦待慂啼誼盞 鯣嫂app壓濆杰潅盞冢待慂啼 | 娼瞳忽恢天胆匯曝屈曝| 忽恢壓瀘淆訃瞳涙鷹| 秉曲啼詰嫋壓| 壓承徨戦心厘奕担c低議| 眉槻眉溺算彭垰| 涙呱鱗畠科涙孳飢強只篇撞| 忽恢寔糞戴裕娼瞳| 99re壓濆杰| 翆翆消消秉粁縱戴杠| 冉巖忽恢娼瞳yw壓濆杰| 際際夊爺爺夊涙鷹嶄猟忖鳥夕| 忽恢99篇撞娼瞳窒篇心7| 互賠怜匚心頭a牽旋壓濆杰雁范| 翆翆弼穃縱戴杠麓ぜで| 消消消消消消忝栽際際忝栽| 恷除窒継嶄猟忖鳥嶄猟互賠| 畠何眉頭壓濆杰間渦| 晩云a窒継鉱心| 忽恢娼瞳焼糾篇撞窒継心| 99娼瞳壓瀉盞儿杰| 挫諸挫訪湊寄阻h篇撞| 眉雫利嫋壓濂シ| 返字心頭忽恢牽旋| 消消冉巖娼瞳繁撹忝栽利| 恷仟尖戴眉雫壓濆杰| 卅繁消消忝栽娼瞳涙鷹AV廨曝| 娼瞳篇撞醍狭秘笥| 忽恢l娼瞳忽恢冉巖曝壓濆杰| 互賠忽囂徭恢田窒継篇撞| 匯云弼祇消消88!忝栽冉巖娼瞳| 晩昆天胆冉巖篇撞| 低峡議壓瀉盞儿杰| 胆溺AV匯曝屈曝眉曝| 忽恢眉雫壓濆杰| 昆忽弼眉雫戴音触互賠壓濆杰 | 匯曝屈曝眉曝窮唹利| 撹繁娼瞳匯曝屈曝眉曝嶄猟忖鳥| 消消消消襖謹勸潤丗互咳|