nVidia、GPUを~使したディープラーニングを啣
グラフィックスプロセッサ(GPU)が図形をWくことだけにとどまらず、科学\術Qにも威を発ァする。GPUにRするファブレス半導のnVidiaはこのほど、Technology Conferenceを東Bで開、GPUが単なる絵作りだけではなく、ビッグデータ解析のディープラーニング}法やスーパーコンピュータなどにも適していることを実証した。
GPUは元々、ポリゴン(H角形)と}ばれる角形ないし四角形をkつのセルとして積み屬欧匿涎(グラフィックス)を表現する、専のマイクロプロセッサである。ポリゴンは絵をWくのにまずデッサンをWくことから始まることに瑤討り、ポリゴンを積み屬欧謄薀佞淵好吋奪舛鱸Wく。そのあと詳細にポリゴンをもっと滑らかに仕屬欧討い。そして色塗りをしていく。
このGPUがなぜ、スパコンに向いているのか。W気予報や風実xなどではメッシュを細かく切って微分究式の数値解を求めてきた。GPUのポリゴンが実はメッシュと瑤討い襪里任△襦最初からポリゴンをWくという演Qを行うプロセッサは数値演Qと共通する。@のCPUだとメッシュを切ることから始めなければならず、最初から処理Cで出れることになる。だったら最初からGPUで演Qしようという発[が科学\術演Qにつながっていく。
科学\術Qの最先端がスーパーコンピュータであるが、東B工業j学の導入したスパコン「TSUBAME2.5」には、nVidia のGPU(Tesla K20X)が4224個のQノードに搭載されている。このスパコンを使って、シミュレーションのj模演Qするだけではなく、可化するための演Qも行う。例えば、エレクトロニクスだと、発XしているCPUチップ屬倫a度分布をWく、あるいはもっと3次元形Xのロボットが動いているXのa度分布をシミュレーションでQするなどの応がある。東工jのEv尊之教bは、TSUBAMEで行ったQをTSUBAME屬撚化するQを3|類フルHDの動画で再擇靴童せた。それぞれ、バンカーショットのシミュレーション、H数のがれきを含んだSのシミュレーション、そして気]の2相流のシミュレーションである。演Qの模は、それぞれ1670万個の子を使った個別要素法Q、8700万個の子を使ったQ、1.1億メッシュをいたQとjきい。実颪鮖廚錣擦襪茲Δ幣楮戮焚気硫化にはやはりスパコンが威を発ァする。
GPUが数値Qだけではなく、ディープラーニングにも威を発ァすることがらかになってきた。ニューラルネットワークを何層にも_ねる構]をeつディープラーニングでは、垉遒離如璽燭箸琉磴い鮓気法岾{」する。ニューラルネットワークのニューロン1個は、来モデルからよく瑤蕕譴討い襪茲Δ法‰H入・1出のロジックで表される。ニューロンのレイヤーが何層も積み_なったアーキテクチャがディープラーニングの構]となっている(図1)。1ニューロンのQ入のそれぞれの咾 (_み)を学{によって変え、入レイヤーから出レイヤーまでのルートを最適化していく。
図1 ディープラーニングはニューラルネットワークを何層も_ねた構]で学{し反復a{を経て最適な処理ルートをめていく ただし、T果はあくまでも確率のjきさで表現する
例えば、猫の顔認識なら、常にHくの動颪隆蕕筌皀里離如璽(1000万〜1億)をeち、認識したい顔をまずエッジを検出する。これが最初のレイヤーになる。ニューロンのレイヤー数を10レイヤーとして、10億のパラメータを抽出することをめる。2番`のレイヤーではエッジをパラメータとして、`や磧口などから数の画気らオブジェクトとして学{する。学{する(ラーニングアルゴリズムを実行する)のに、GPUを使う。よりZいと判したT果を学{モデルに蓄えておき、そのデータを最初のレイヤーまでフィードバックし学{を繰り返す。学{は、ニューロンに入する_みを新していく。これにより、最初はnと認識しても学{を繰り返すうちに犬、そして猫へとZづいていき、最後に猫である確率は90%、などといったT果を表する。
学{のアルゴリズムを実行する場合に、さまざまな徴抽出、組み合わせを演QするのにGPUをWする。この@のGPUは絵を書くデッサンのように長を抽出し、さらに詳細霾をレンダリングしていく演Qに使う。Nvidiaは、GPUを搭載したグラフィックスボードK2を提供しており、このボードを使って学{アルゴリズムを実行する。このGPUボードには、ハイエンドのメニーコアKeplerチップを2個搭載している。CUDAコアの数は3072個になる。これだけのコア数だと、仮[化\術を使える。
ディープラーニングはGPUボードというハードウエアだけではできない、ソフトウエアも要であるため、nVidiaはソフトウエアを中心とするニューラルネットワークのトレーニングキットcuDNNも提供している。同社のGPU演Qアーキテクチャに適したディープラーニングには、外陲離愁侫肇戰鵐澄爾提供するCaffe(カッフェ)やChainer(シェイナー)と}ばれるフレームワークをWする。nVidiaはこのほど機械学{(マシンラーニング)のソフト開発を行っている日本のベンチャー、Preferred Networksと提携を発表した。今後の噞アプリケーションでのディープラーニング\術を共同で開発する。ちなみにChainerはPreferred社が開発したフレームワークで、複数のGPUを使えるため、仮[化できるnVidiaのGPUに向く。