AIへjきく舵を切ったnVidia
グラフィックスICであるGPUがuTなnVidiaは、画鞠Ъ院音m認識などパターン認識に、マシンラーニングやディープラーニングなどのAI(人工Α砲しているが、その勢いをますます加]している。同社主の\術会議GTC 2016でその妓をらかにした。

図1 nVidiaのCEOであるJen-Hsun Huang
GPU(グラフィックスプロセッサ・ユニット)はこれまで3次元画気鱸Wき、光の陰影などつけてより^真にZづけるといったゲーム応が主なだった。それがCPUを佐する高性Ε灰鵐團紂璽謄ング(HPC)にGPUを使うようになり、さらにそのをAIのパターン認識とその学{に応するようになった。今QのGTC(GPU Technology Conference)はAIk色だった。同社CEOのJen-Hsun Huang(図1)の基調講演のタイトルは「ディープラーニング:AI革命」としており、その様子をよく表している。
nVidiaは単にGPUの応J囲をゲームからコンピューティング\術やAIへと広げてきただけではない。むしろAIに使うデバイスとしてする気威を発ァすることがわかってきたことによる。例えば、音m認識にすると、来の言や文脈の長抽出をいたコンピュータアルゴリズムでQしていた桔,犯罎戮董誤認識率が下がったというデータが出てきた。2016Q9月16日にマイクロソフトが発表した、AIを使った音m認識の誤認識率は来の10%以屬ら2%度にjきく下がっている(図2)。
図2 音m認識はディープラーニングにより誤認識率は2%に 出Z:nVidia Microsoftのデータを引
通常の会Bをしていると、「あー」とか「えー」とかT味のない言がHく、そのような無Gな言を認識するためのアルゴリズムは要がないはず。しかし来のコンピュータアルゴリズムはての言を認識するように努めてきた。これに瓦靴董AIでは、「あー」や「えー」はT味のない言だと判して切り捨てればよい。「あー」や「えー」を含めた音mの複雑なパターンからパターンそのものの長を抽出し、類性などからT味づけ学{を行うことによって、認識率は屬った。AIでは、何hv・何万vと学{して覚えたパターンを参照パターンとして使い、瑤燭茲Δ淵僖拭璽鵑現れたら、参照パターンと比較し判するのである。
nVidiaのAIシフトは、クルマの世cにも広がってきている。もともとnVidiaは、5QほどiからクルマにGPUを搭載し、ダッシュボードに]晶パネルを導入し、そこにWくスピードメータやタコメータを、きれいな画気派集修垢襪海箸鰆`的としていた。ダッシュボードへのWによるドライバーмqが`的だった。残念ながらこのは、k陲離ルマメーカーにしか採り入れられなかった。もちろん、クルマへの]晶パネルの採はまだ進んでいない。
ところが、O動運転ZがR`を集めるようになってくると、ドライバーмqのテクノロジーはk変した。ドライバーのi気砲△颪クルマなのか、人なのか、O転Zなのか、クルマでもトラックなのか、乗Zか、人間の眼と同じレベル以屬寮Δ求められるようになった。するとパターン認識\術が極めて_要になってくる。そこでAIの登場、というシナリオが出てきた。
AIにGPUを使う理yは、AI、にディープラーニングではニューラルネットワークの}法とk致するからだ。ここでは神経細胞をまねた構]の情報伝達システムをWする。ニューロン(神経細胞)1個は、神経や音mなどのH数の入信、N細胞に入ると、最初のN細胞では、入ってきたすべての入信(x1〜xn)に_み(a1〜an)をXけ、それらをBし合わせる。最後にQしたT果をyとして出する。これは、GPUがuTな積和演Qそのものだ。この_みを学{によって変えていくと、出yも変わる。神経細胞は小Nだけで1000億個あるといわれているため、電子v路では、このような細胞をできるだけH数Tして、神経ネットワークを構成していく。
ディープラーニングの応分野は、画鞠Ъ韻箍嗣m認識などのパターン認識\術。それらをベンチマークとして、nVidiaのコア\術であるGPUの性Ω屬皺]している。2016Qに発表したGPUであるPascalは、3Qiに発表したGPUのKeplerの65倍の性Δ魴eつ。16nm FinFET\術や3D-IC\術であるHMB2メモリなどの先端\術をいている。Pascalはもはやスーパーコンピュータを構成する_要な\術でもある。
図3 2016Qに発表した新GPU「Pascal」 16nm FinFETやTSVメモリなど先端\術の修澄―儘Z:nVidia
GPUはグラフィックス、すなわち「お絵かき」専のプロセッサである。絵を書く場合のデッサンに相当するのが小さな角形(トライアングル)をつなぎ合わせていく、という作業である。その屬某Г鯏匹襦淵譽鵐瀬螢鵐亜砲箸い作業を経て絵を完成させるlだが、実はレンダリング作業をjきな画Cのk陲任蓮瑤燭茲Δ平Г魏薪戮眦匹辰討い觝邏箸妨える。実際、1のフレーム屬任蓮画Cを分割し、色を格納しているメモリからディスプレイ屬某Г鯆イける作業そのものをしており、まさに並`処理していることに等しい。CPUは、分岐命令により様々な作業を担わなければならないため、単純な並`処理は向かない。単純な並`処理こそ、GPUが最もuTとする作業である。この作業は、瑤燭茲Δ焚気箍嗣mなどのパターンを何度も覚え込ませる「学{」と瑤討い襦だからGPUは、マシンラーニング、ディープラーニングに向いているというlだ。
ディープラーニングでは、IoTやスマートデバイスなどからのデータを学{し、ニューラルネットワークで何度も繰り返し、推bを行い、IoTにフィードバックする(図4)。GPUはこの中で学{と推bを担っている。例えば、推bのアクセラレータであるTesla P4/P40は、CPUと比べて、P4はエネルギー効率が40倍、P40は性Δ40倍という。さらに、最新のGPUモジュールとして、推bエンジンを最適化する性Δ魴eつTensorRT、組み込みスーパーコンピュータのJetson TX1など高性Δ凌をHuangは紹介した。
図4 AIではIoTから学{、ニューラルネットワーク、推bマシンというサイクルを何度も繰り返す 出Z:nVidia
日本では、工場ロボットのファナックと提携した。ファナックの工場にnVidiaのAIGPUモジュールを導入し、ロボットを賢くすることによって、ユーザーの攵奟率を屬欧茲Δ箸いα世いある。
i述したように、AIを使ったパターン認識は、クルマのO動運転にも向いた\術である。クルマのi気砲△襪發里鯒Ъ韻掘vcするのか、停まるのか、という判も行う。クルマが高]O路かk般Oか、クルマの周囲にあるもの、なども認識する。さらに颪ずっとiからあったのか、突出てきたものか、ずっと{_しているものか、だったらどのようにすべきか、などを判する。判ができたら、ブレーキをかけるのかへ寄るのか、などのアクションをとる。アクションはU御Uのマイコンを含むECU、アクチュエータで行う。アクション以外はAIで情報処理することができる。
これまでのO動運転は、クルマの検出・認識、さらには白線検出などを行い、サラウンド検出も加えていた。やはり`印となる白線などの颪要だった。颪まれば、AIを使わなくてもコンピュータQだけでも情報処理はできた。しかし、`印のない、例えば僂涼罎痢屬韻發里澆繊廚鯀るようなハンドル操作となると、「究式はない。ハンドル操作はQではなく行動(Behavior)である。だから、経xを積んだ学{、すなわちAIが要なのだ」とHuangは講演で述べている。
ただ、GPUのcき所は、消J電がまだjきいことだ。これまでよりは少なくなったとはいえ、まだ数WではLSIとしてjきい。さらに下げるための試みとしてIBMのTrueNorthチップやGoogleのTPU(Tensor Processing Unit)などAI専のプロセッサが登場している。ここに日本の半導メーカーにもチャンスがある。