Semiconductor Portal

» セミコンポータルによる分析 » \術分析 » \術分析(半導)

国内ファブレス半導ベンチャー、TRIPLE-1がAIコアを開発

日本にも誕擇靴織侫.屮譽紅焼ベンチャーがAIチップを作るようになってきた。福Kxに本社をくファブレス半導のTRIPLE-1は、学{させることを狙ったAIチップ「GOKU」を開発中だ(図1)。最先端の5nmプロセスを使うAIチップに集積するコアの開発をこのほどらかにした。

図1 国ファブレス半導ベンチャーが開発したAIコア 出Z:TRIPLE-1

図1 国ファブレス半導ベンチャーが開発したAIコア 出Z:TRIPLE-1


AIチップになぜ5nmという微細化\術が要なのか。ニューロンモデルで表現されるMAC演Q_(d│)をH数詰め込めれば詰め込めるほど、人間のNにZづけるからだ人間のNにはj(lu┛)Nに数個、小Nには1000億個の神経細胞、すなわちニューロンがあるといわれている。それらは微小な電気信(gu┤)で情報を送p信している。このニューロンを真瑤燭發里ニューラルネットワークである。億単位のニューロンを集積したというAIチップはまだないものの、数個のニューロンを集積したAI半導v路はすでにIBMが試作している。ただし、デジタルで表現する場合にブロック内に集積するニューロン数がチップ設によってまちまちなため、チップ当たりのニューロン数という表現はしないようだ。

ニューラルネットワークのモデルでは、ニューロン1個は、H入・1出のパーセプトロンモデルで記述されることがHい。入はデータと_みを加えて演Qする(図2)。ニューロン1個の演Qは、デジタル的に表現すると、データ1×_み1+データ2×_み2+・・・・+データn×_みn、という数式で表現される。すなわち積(XけQ)和(BしQ)演Q(MAC: multiply accumulate calculation)を行っていることに相当する。もちろんアナログ的にもH数の入データにH数の_みを可変B^で表すこともできる。


ニューロモデル-基本はパーセプトロン

図2 ニューラルネットワークの等価v路 筆v作成


出値は1か0とする場合がHい。H数の入演QをBし合わせて出の1か0を表現するために、演Q霾はステップ関数、つまりコンパレータのようにしきい値を例えば0.5に定め、それ以屬1、以下を0で表す。連関数で表わせばステップ関数は、シグモイド関数でZ瑤任る。ニューロンの数を\やせば徐々に人間の頭NにZづきしい答えを導くだろう、という[定でニューロンを構成する。

そこで、kつのニューロンから次のニューロンへと次々とネットワークを構成する。これをデジタル的な等価v路で表現すると、MAC+メモリ(DRAM)を1ニューロンとして、このv路をH数並`に並べていく。実際にはニューロンを数欧数をkつの単位にまとめ、そのブロックをH数並`に並べて行き、Nをモデル化する。そしてj(lu┛)量の小さなMACという基本構]がGPUチップには集積されているため、NvidiaのGPUがAIチップとして使われてきた。

H数のMAC演Qとメモリからなるニューロンブロックを、さらにH数並べるためにはできるだけ微細化して詰め込むだけ詰め込まなければ、人間のNには届かない。このため微細化\術がAIチップには要となる。

GPUやCPUの微細化ではAMDやQualcommが進んでおり、AMDは7nmのGPUを開発している。ただし、x場には出ていないという。国内でディープラーニングのフレームワークであるChainerを開発してきたプリファードネットワークス社もAIチップを2018Q12月のセミコンジャパンで見せたが、その時は12nmプロセスを使っていた(参考@料1)。TRIPLE-1は微細化の先頭に立ち、高集積のAIチップを`指すため5nmのデザインを進めてきた。まずはAIコアを2019Q9月に完成させサンプル出荷し、現在h価中だ。

社内でh価したところ、16ビットの@度でピーク性1000 TFLOPS(1PFLOPS)で、電効率は10 FLOPS/W、AIコアで100Wとなる。ただし演Q@度は8ビットでも16ビットでも変えられるようになっているという。

このT果がすように、TRIPLE-1がこだわるのは、低消J電化だ。データセンターで学{させる場合でも消J電の低さは、データセンターのξを屬欧襪海箸できる。データセンターでは使える電に限cがあるため、消J電あたりの性Δ屬欧襪海箸侭Z心してきた。5nmという微細化は、性Δ篏言囘戮世韻任呂覆、消J電の削(f┫)にも効果がある。

ただし、7nmから5nmへと微細化を進めれば進めるほど、トランジスタのバラツキがj(lu┛)きくなり、歩里泙蠅狼Kくなる。そこで、歩里泙蠅鰥するv路を導入することでバラツキを償しているという。トランジスタのバラツキを]度の]い・いで分割し償していくのだという。これに関してはを出願中だとしている。

kつのコア(MAC+メモリ)を並`にずらりと並べるわけだが、その行`演Qコアはあるj(lu┛)学と共同で開発、O社でRTL(register transfer level)をプログラムながら、ソフトウエアの改良を加えてきたとしている。AIコアの配配線レイアウトはO社で}Xけており、半導設エンジニアがHいことをうかがわせている。社^数30@の内7割がエンジニアだという。

次は開発したAIコアをずらりと並べて、レチクルサイズぎりぎりのj(lu┛)きなチップ(25mm×32)を設することだ。SerDesを介して外陲板命し、しかも拡張性をeたせて並`接できるようにする。このためAIv路霾のC積はまだ設定していない。Q内にはテープアウトしたいとT気込んでいる。同時並行的に水冷システムを採することになると思われるが、放X設も開始する。

参考@料
1. プリファードネットワークス、AI学{チップを顔見世 (2018/12/18)

(2020/01/30)
ごT見・ご感[
麼嫋岌幃学庁医 爺銘彿坿壓炒侘| 消消消消消91| 忽恢岱絃岱徨壓濂ナ啼飢シ斗嫋| 恷除互賠忽囂嶄猟壓濆杰潅盞| 仔利嫋弼撹定頭寄窒継互賠| 777忽恢裕椙義父娼瞳瞳壓| 叫奨祇匯云犯嶄猟忖鳥| 消消消冉巖天巖晩恢忽鷹a▲| 窒継娼瞳消消消消消嶄猟忖鳥 | 築洋av來消消消消築洋a▲醍狭| yy22.tv匚埖岷殴| 消消消消繁曇娼瞳匯曝築孟| 消消娼瞳忽恢塁| 消消娼瞳繁繁恂繁繁訪窮唹築埖| 冉巖嶄猟娼瞳消消消消消音触| 窒継心弌12腿黛悶篇撞忽恢| 劑娼議硫依ova| 忽恢娼瞳低峡誼| 晴晴晴嶄猟互賠壓濆杰6| 冉巖恷寄撹繁利弼| 嶄猟忖鳥消娼瞳窒継篇撞| 91娼瞳返字忽恢窒継| 弼頭窒継壓濆杰| 天胆賞厭寄媾戟諾富絃| 撹繁訪a谷頭壓瀛啼詰嫋| 忽恢娼瞳消消消消利嫋| 嗽訪嗽仔嗽涙孳飢議篇撞壓濆杰| 込虻゛込虻校阻湊謹湊侮弌傍| 忽恢天胆篇撞壓濆杰| 忽恢壓98牽旋殴慧篇撞窒継| 忽恢繁劑xxxx恂鞭篇撞| 冉巖晩云繁撹嶄猟忖鳥| 匯云岻祇壓瀛啼| 楳楳課窒継壓瀛啼| 天胆繁鋲住videosg| 爺爺握爺爺恂爺爺訪匚匚彼| 忽恢廨曝嶄猟忖鳥| 冉巖嶄猟忖鳥消消娼瞳涙鷹島邦| 消消消消消消繁曇涙鷹嶄猟忖鳥卯| 匯倖繁心議壓瀉盞冓啼| 昆忽尖胎牽旋頭怜匚|