Semiconductor Portal

» ブログ » インサイダーズ » KI憲の集積v路の日に向けて

人工Δ悗量O(1):ニューラルネットワークとCAMの類性

筆vは、4月に、1人で小さな会社をこした。2019Qに40QZくめていた企業を社して以来、@詞も所錣發覆びXの「不都合」を次々と実感しした。社@は、「情報統合\術研|合同会社」とした。設立`的は、「PS検索v路をスケールアップする\術」をまとめ、世に問うためである。本ブログでは、その\術にこだわりをeつに至った経緯を記載したい。

CAMと連[メモリとAssociative Memory
 
筆vは、1990Q代に、検索v路の検討を進めた経xをeつ。メモリの設靆腓悗僚錣長かったが、DRAM業の行き詰まりの影xをpけ、新設のロジック商向けのDRAM混載ASICの開発に異動となり、グラフィックスやネットワーク・アプリで要とされるj容量メモリとロジックの混載\術の担当となった。DRAM型のCAM(Content Addressable Memory)も、そのターゲットのkつであった(参考@料1)。

当時のCAMはらかに発t屬龍\術であった。その動作は、RAMの動作の逆である。 RAMが、アドレスを入しデータを出するのに瓦掘CAMは、データを入しアドレスを出する。 その動作のことを検索(Search)と}ぶ。 予め、CAMに登{しておくデータは、例えば、MACアドレスやIPアドレス等である、検索してみて未だ登{されていないことが判した場合には、O動的にそのアドレスを登{するという「O学{」する機Δ魴eっており、筆vには常に魅的な\術と思えた(R1)。 CAMのO学{機ΔFeed-Forward型であり、ヘブ(Hebb)学{(R2)を表現する擬阿悗罰板イ気擦Δ襦

CAMは、日本語では連[メモリと}ばれることがHい。 しかし不思議なことに、「連[メモリ」を再度英lすると、“Associative Memory”となり、数理統N科学や情報幾何学の創始vである甘W俊k先據▲優コグニトロンの福邦}先擇筺▲▲愁轡▲肇蹈鵑涼飜m先擇@iが現れるニューラルネットワークの世cである。筆vは、CAMからスタートし、ニューラルネットワークの世cを垣間見ることとなった。

CAMとニューラルネットワークv路

筆vは、CAMとニューラルネットワークは、基本動作としては等価なv路であると思っているが、両vの間には不思議なほどにすれ違いがある。慣例によると、ニューラルネットワークを表現するv路は、図1Aのように、左辺笋ら水平妓にi段ニューロンの軸索をモデル化した配線を引き、その軸索とシナプス接合する次段ニューロンのソーマ(細胞内で行われる線形動作をモデル化したv路)を下辺に配するのがk般的である。

k機CAMでは、これらの配を反時周りに90度v転させて表記する。i段の軸索に[定する配線が検索線(サーチ線)であり、下辺に配し、k致判定のセンスv路を辺に配する(図1B)。


図1 ニューラルネットワークモデルとCAMv路。 A(左)のニューラルネットワークモデルを反時周りに90度v転させると、B()のCAMv路と等価なv路となる。

図1 ニューラルネットワークモデルとCAMv路。 A(左)のニューラルネットワークモデルを反時周りに90度v転させると、B()のCAMv路と等価なv路となる。


フィンランドのTeuvo Kohonenは、~@な著作(参考@料2)の中で、「ニューラルネットワーク研|vは、コンピュータに使われるCAMというv路を瑤蕕覆った」と記しているが、そのようなT外な経緯で、両vのv路記述が違ってきたのだろうと思う。CAM\術を参考としなかったばかりに、ニューラルネットワークの電子v路化の開発プロセスは遠vりをしてしまったとの認識があったのではないだろうか。

基本的なニューラルネットワークでは、シナプス接合値(W)とi段軸索からの入(X)の間で{Σ(wi×Xi)}という内積Qを行い、その値と「バイアス値をT味するリファレンス値」と比較して、その差分を性化関数でh価する。(古Z的なモデルでは、プラスの時には発し、マイナスの場合には発させない)。

CAMの場合には、{Σ(wi×Xi)}の値がゼロであればMatch(k致)と扱い、の値ではMis-Match(不k致)とする。もし、CAMのMatch判定時に、{Σ(wi×Xi)}の値が、「リファレンス値」以下の場合には発し、以屬任△譴佝させないとすると、ニューラルネットワークと同じとなる。そのようなCAMは、Exact-Matchではなくとも、「|値で設定した度以屬凡k致するか、否か」を判定することになり、「PS検索(Approximate Search)v路」とでも}びうる機Δ魴eつこととなる。

その場合、k致の度は、入データが作るベクトルと、登{データが作るベクトルの間の「{`」を内積で定Iすることになり、k致度が高い時に発する場合、ニューラルネットワークの動作と同じとなる。

実際には、{Σ(wi×Xi)}を構成するwiやXiという値の諧調をどのように表現するか、また、その値をリファレンス値と比較するにはどうすれば良いかという細かな実屬量筱があり、現実的なv路を構成するには工夫が要である。筆vは、wiや Xi 「リファレンス値」等の値をてディジタルとすべきと考え、そのPS検索v路の擬阿2000Qに出願した。

スケールアップ\術

ニューラルネットワークを表現する電子v路には、スケーラブル(Scalable)であることが求められる。 同じアーキテクチャで、並`度を高めることによって、v路模を拡jさせたいからである。v路をスケーラブルとする機Δ蓮▲優奪肇錙璽機Δ任發△襪呂困澄

筆vは、ヘブ学{を表現するξを加えたPS検索v路は、ニューラルネットワークを階層的に表現するv路擬阿箸靴凸ノ的だと考え、新にこした会社の中でそのネットワーク\術をまとめるつもりでいる。

R
1. CAMに登{しておくデータを、「ハッシュ・テーブルである」とか、「真理値表である」と}べると思えるが、ここでは、そのような見気砲弔い討録柴りしない。
2. ヘブ(Hebb)Г寮を,Teuvo Kohonenの著作(参考@料2)より引すると,「細胞Aの軸索が細胞Bを興奮させるのに科Zくにある時,そして,繰り返しまたは根気咾Bを発させようとしている時,ある成長壻または代aの変化が1つまたは両気虜挧Δこる。このようにしてBを発する細胞のkつとしてのAの効率は\加する」とある。 つまり、「発することにより、シナプス接合單戮鯀T味するT合パラメータ値がjきくなる」との神経斃学屬侶俎xГ鬚いΑ

参考@料
1. J.G. Delgado-Frias (State University of New York), et. al., “A Dynamic Content Addressable Memory Using a 4-Transistor Cell”, International Workshop on Design of Mixed-Mode Integrated Circuits and Applications, 1999.
2. Teuvo. Kohonen著;「Self-Organization Maps(O己組E化マップ)」、Springer刊、1995  Q(初版)、1997Q(2版)、2001Q(3版)。

情報統合\術研|合同会社 代表 K I憲
ごT見・ご感[
麼嫋岌幃学庁医 消消忽恢忝栽娼瞳天胆| 喝弥佯蝉壓濔瞳屈曝| 1111夕頭曝弌傍曝天巖曝| 挫槻繁挫彿坿壓灑以唸挈| 消消嶄猟彦絃坪符| 蛉徨短母svk| 冉巖天胆娼瞳怜鋒紐窟| 砿社禿嗤陳乂井云| 忽恢匯曝窒継壓濆杰| 99re恷仟宸戦峪嗤娼瞳| 忽恢娼瞳晩云匯曝屈曝壓濂シ| ipx-412爺今呱壓濂シ| 撹繁侮匚牽旋壓濂シ轍賛| 消消邦築孟冉巖AV涙鷹娼瞳| 天胆繁嚥麗総窃| 冉巖母絃涙鷹岱徨av窮唹| 槻繁斑溺繁涌訪30蛍嶝| 揖僥議壷引13p| 編心120昼恂鞭弌篇撞窒継| 忽恢苧佛xxxx篇撞| 24弌扮窒継心頭| 壓瀛啼吉婪天胆| xxxx晩云壓| 撹繁Av涙鷹匯曝屈曝眉曝| 消消消消冉巖娼瞳涙鷹築孟| 症戦桑yy6080| 冉巖怜匚消消消唹垪| 天胆弼夕丕坩敢弼| 爺爺訪冉巖嶄猟忖鳥| 嶄猟忖鳥匯曝屈曝眉曝晩昆娼瞳| 晩昆匯曝屈曝壓瀛啼| 冉巖岱冉巖岱富絃涙鷹| 天胆晩昆忽恢壓瀏乏| 冉巖娼瞳岱鷹消消消消消徭凌 | 消9消9娼瞳篇撞壓濆杰| 晩昆戟諾富絃涙鷹坪符| 冉巖AV晩昆娼瞳消消消消消| 天胆岱寄住XXXXX決髄障赤何| 冉巖天巖涙鷹匯曝屈曝眉曝| 屎壓殴慧julia溺縮弗| 冉巖娼瞳涙鷹消消消消|