ChatGPTの半導噞へのインパクト、1万個のGPUがコア\術に
聞けばなんでも答えてくれるChatGPTがR`されているが、このAI(ディープラーニング)は、これまでのAI(機械学{)とはj(lu┛)きく違う。これまでは定の専AIだったのに瓦靴董ChatGPTに使われるj(lu┛)模言語モデル(LLM)は@AIにつながる\術だからである。この実現のためには桁違いのHくの積和演Q半導チップ(GPU)が要である。ここに新たな半導要が擇泙譴襪海箸砲覆襦
j(lu┛)模言語モデル(LLM)を学{モデルとして使うためには、来なら学{に数カ月もかかるため、HくのAIソフトウエア開発vはLLMの開発をあきらめていた。しかし、並`でGPUなど並`積和演Qチップをj(lu┛)量に使って学{すれば合理的な時間で済むようになる。そのT果擇泙譴燭里ChatGPTという收AIだ。Microsoftが出@する研|開発企業OpenAI社が開発、いまR`を集めている。
図1 OpenAIが開発したテキストを入するだけで欲しい画気uられるAIのDALL・E(画家のダリと発音) 出Z:OpenAI
ハードウエア笋らChatGPTを実現するためには、学{させるうえでGPU(グラフィックスプロセッサ)がj(lu┛)量に要となることは容易に[気任る。最Zリリースし、BになっているChatGPT-3には1750億パラメータで学{させたモデルが組み込まれているものの、ChatGPTを使ってみた様々なレポートを見ると、ずしも確ではないという。このため、2023Q中ごろにリリースされる次世代版のChatGPT-4ではさらにHくのパラメータで学{されていることが予[される。現在のChatGPT-3を学{させるためにNvidiaのGPUが1万個も使われているとみられている。ということは、今後のChatGPTの開発にはさらにHくのGPUが要となることを唆している。
Nvidiaは、データセンター向けGPUの要は毎Q23.5%のペースで成長しており、2022Q3四半期にはiQ同期比30%成長した。
C白い実xとして、盜颪離┘譽トロニクスメディアのFierce ElectronicsはChatGPTにどのようなコンピュータを使っているのかを聞いてみたという(参考@料1)。返ってきた答えはまず機械学{の説から始まった;
・ChatGPTは、並`処理にj(lu┛)量のGPUを△┐進gコンピューティング屬覗る機械学{モデル・ChatGPTに使われるハードウエアはzなものだが、NvidiaのGPUがよく使われており、同社のソフトウエアCUDAがサポートしている。
・ChatGPTのようなj(lu┛)模ディープラーニングを学{するためのインフラとしてk般的なクラウド環境であるAWSやGCP、Azureなどがある。
・推bは、機械学{されたモデルを使って、新しいデータを予Rすること。ChatGPTでは、入データに瓦靴董⊃祐屬里茲Δ淵謄ストを收するために使われる。
そのあとさらに的にNvidia以外のGPUも使っているのかをねたところ、次のような返をしたという;
・(j┤ng)来はほかのベンダーのGPUでChatGPTなどの学{をできるだろうが、現在はNvidiaのGPUが広く使われている。CUDAサポートがあるからだ。CUDAはNvidiaのGPUを効率よく使うために要な並`処理プラットフォームでありプログラミングモデルである。・ChatGPTを開発したOpenAI社は、新しいAI\術やモデルを開発中で、モデルを改良するために常に新しいハードウエア(半導チップ)やソフトウエアを試している。
・ChatGPTを例えば1万個のNvidiaのGPUのようなj(lu┛)量のGPUを使って学{させることができる。ただし、的なインプリ(sh┫)法や入}できるリソースによって確なGPUの数は変わり、学{させるデータ量や学{モデルによっても変わる。
NvidiaのようなGPUではなく、AI学{を`的としたAIチップ(j(lu┛)量に並`処理できる積和演Q_と、演QT果や_みデータを記{するメモリを集積したIC)があれば半導メーカーはj(lu┛)模言語モデルの收AI向けの新x場に挑戦できる。そしてCUDAのようなプログラミングしやすい環境のプラットフォームも擇濬个?ji└)要がある。ChatGPTは、日本も今から躍可Δ粉超ができることをしている。
参考@料
1. Matt Hamblen, "Update: ChatGPT Runs 10K Nvidia Training GPUs with Potential for Thousands More", Fierce Electronics (2023/02/11)