半導プロセッサメーカーが集Tした師走(AI)
今後がR`される半導設企業がこの12月に集Tした。Intel、Nvidia、Qualcomm、Arm、そしてRISC-V Foundationだ。脱パソコンを模索するIntelはAI、Nvidiaもゲーム機のGPUからAIへとそれぞれシフトさせ、AIプロセッサIPコアベンダーAImotiveがハンガリーから来日した。i半はAI、後半はIoTを中心に紹介する。
Intel、クラウドからエッジまでAI揃える
Intelは、これまでx86アーキテクチャのXeonプロセッサをAIの演QにWするスケーラブルプロセッサに加え、企業A収によって3つのAIソフトウエア企業を}に入れた(図1)。Movidius、Nervana、そしてSaffronの3社である。Movidiusは推bに化したエッジのAIチップを設しており、人間のNを構成するニューロン(神経細胞)とシナプス(I点)を模倣したニューロモーフィックプロセッサ「Loihi」を、さらにNervana社はニューラルネットワークプロセッサ「Lake Crest」をそれぞれ出してきている。Saffron社の\術は連[メモリを使うAIで、Xeon Scalableプロセッサ屬法金融Mを検瑤垢襪燭瓩忘播化された「Saffron Anti-Money Laundering Adviser」を載せている。
図1 2017QのIntelはAIにを入れ始めた
IntelはAIをさまざまな分野に向けてを[定しており、エッジからデータセンターに至るさまざまなエンドツーエンドのソリューションに官できるようにしている(図2)。例えば、エッジではMovidiusチップを使ってドローンや監カメラなどのビジョンプロセッシングを担う。ハイエンドのデータセンターでは、Nervanaニューラルネットワークプロセッサで膨jなデータのバッチ処理を行う。にを入れるNervanaでは、SDK(ソフトウエア開発キット)やライブラリを揃え、さらにAIフレームワークであるCaffe 2やTensorFlowなどをサポートする。
図2 エッジからデータセンターまでのチップを揃えるIntel
Intelの咾澆浪燭箸い辰討AlteraA収によってFPGAを}に入れたこと。にデータセンターなどでは、並`処理に優れたGPUとはいっても、さすがにハードウエアv路であるFPGAには性Cで及ばない。FPGAのStratix 10と、嗄なCPUであるXeon、そしてNervanaのニューラルネットワークプロセッサと3つを使うことができる。現在最咾Xeon Platinum 8180プロセッサとIntelのMKL(Math Kernel Library)を使い、最適化されたCaffe AlexNetでi世代のプロセッサで比べると学{のスループットは113倍、推bではCaffe GoogleNet v1で138倍屬ったとしている。
Nvidia、AI向けGPUで性Δ鰺ダ
k機AIで最Zもてはやされているグラフィックスプロセッサチップ(GPU)のNvidiaは、AIに向いたGPUシリーズのCUDAを発表して以来、進化を~げている。2012Qの「Kepler」から数えて4世代に相当する「Volta」アーキテクチャでは、「Tesla V100」というがあるが(図3)、これは最j125TFLOPSの半@度(16ビット)性Δ鮗存修垢Tensorコアを搭載しているという。このチップを搭載したAIスーパーコンピュータともいうべきDGX DGX Stationは、1Peta FLOPSという高性Δ淵灰鵐團紂璽燭任△襦
図3 AIに適したGPUのCUDAの進化 最新チップはVoltaシリーズのTesla V100
このTesla V100の威をデータセンターレベルで比較すると、4万5000の画気1秒間で識別するのに要なデータセンターのサーバー数は、来のCPUサーバーだと160要で、消J電は65kWだったが、Tesla V100を搭載したGPUサーバーだと、8で済み、消J電は3kWで済んだとしている。つまり、画鞠Ъ韻40倍高]になり、O言語翻l処理をさせる場合には140倍高]だったとしている。
NvidiaのCEOであるJensen Huang(図4)は、1のTesla V100サーバーが約50万ドルをI約したことに相当する、と述べている。同は再帰型ニューラルネットワーク(RNN)を使って作曲のデモも見せた。バッハ、モーツアルト、ベートーベンの音楽と、「スターウォーズ」や「インディ・ジョーンズ」、「ハリー・ポッター」など映画音楽の巨泥献腑鵝ΕΕリアムズの作を学{させた後、作曲させたシンフォニー音楽をビデオで流した。
図4 NvidiaのCEOであるJensun Huang
AIはクルマのO動認識に使う\術でもあるが、これからのO運転にはソフトウエアがカギになろうと述べ、コネクテッドカーでのSOTA(Software on the air)などを含め、クルマは、「Software-Defined Car」になると述べた。これはスマートフォンがアプリでさまざまな機Δ鮗{加できるようになったことがクルマにもきるだろうとした。
AIのIPベンダーも登場
ハンガリーのIPベンダー、AImotive社がエッジ向けの推b専のAIプロセッサコアのライセンス提供を国内で始めた。Y化団のKhronos Groupが定めたNNEF(Neural Network Exchange Format)に拠したニューラルネットワークのアクセラレータIPである。現行のGPUと比べて電効率が4~5倍高く、MAC(積和演Q_)の使率が94%と高い、としている。
図5 マイコンとk緒に動くAIアクセラレータ 出Z:AImotive
同社は、開発をサポートする日本の半導専門商社、菱洋エレクトロを通じて販売ライセンスをサポートする。このIPはマイコンと共に動作するアクセラレータであり、スケーラブルな演Q_であるLAM(Layer Access Module)が外けメモリ(DDR)とやりDりする(図5)。国内でもグラフィックUのIPベンダーであるDMP(デジタルメディアプロフェッショナル)がAI推bIPをライセンス販売している。次vは、IoTとセキュリティの最新の動きを紹介する。