Semiconductor Portal

» ブログ » インサイダーズ » KI憲の集積v路の日に向けて

人工Δ悗量O(6)〜收AIブームのT味する所

昨Q来、收AIに関する報Oが発化している(R1)。 ニューラルネットワークのj模化によって、翻l、文章收、V画、動画、音楽等のコンテンツ收が人間並みになったとのh価がHいが、AIのξがそのように高度となった背景には、深層ニューラルネットワーク\術とニューラルネットワーク探索\術、または進化的Qとのアイデア融合があると考えられる。 v路アーキテクチャの開発がO動化されることの社会や噞に及ぼすインパクトはり瑤譴覆い曚表jきく、今後の動向には`が`せない。

jSの: 深層学{とニューラルネットワーク探索\術の融合

この数ヵ月は、ニューラルネットワークの次のブームが到来したと思えるほどである。Microsoft社がOpenAI社に約100億ドルを投@する旨の報Oがあり(参考@料1)、それに}応するように、Google社はネット検索\術とBARDと}ぶ会B型AIの統合を発表した(参考@料2)。「收AI(ジェネレーティブAI)のjSがやってくる」との解説もある(参考@料3)。

研|b文のP数にて動向からは、2018Q以T、Self-Attention、Neural Architecture Searchといった語の使頻度が\中であることが分っていた(図1)。 翻lニューラルネットワークv路の構]語として、AttentionやTransformerという言(R2)が\えており、進化的Q(Evolutionary Computation)やC伝子アルゴリズム(Genetic Algorithms)などと}ばれる「|の進化を模倣するアルゴリズム」に関する研|も、依高いP数を維eしていた。

にR`したのは、Neural Architecture Search (ネットワーク探索)と}ばれる「学{情報に適合するニューラルネットワークv路のトポロジーをO動探索する\術」である。 「|の進化を模倣するアルゴリズム」と「ニューラルネットワーク\術」の融合は、歴史的に予[されていたt開だったからである。


IEEEが集するニューラルネットワーク関連のb数の推 / 筆v作成

図1 IEEEが集するニューラルネットワーク関連のb数の推 b文の要欄に、Qキーワードが載るP数をカウントしている。ZQ、AttentionやTransformerに関連するb文が\しているが、Neural Architecture Searchに関するb文数の興隆も始まっている)  出Z:Web屬妊機璽咼垢気譴討いIEEE Xploreをいて、2022QQ初に筆vが作成。


深層学{(Deep Learning)は、H段のニューラルネットワークv路の_みパラメータを学{データによって最適化するO動化\術であるが、ニューラルネットワークのv路トポロジーや、使われる性化関数、ハイパーパラメータ等は、人間が介在して試行惴蹐魴り返しマニュアル設定する要があった。

これに瓦靴董▲優奪肇錙璽探索\術は、ニューラルネットワークのv路トポロジーをO動收することを`指していた。 v路トポロジーの最適化がO動化できるのであれば、性化関数やハイパーパラメータの最適化もO動化可Δ噺て良いだろう。そのようなO動化\術が@\術のレベルに向屬垢襪函⇒諭垢幣噞へのAI採を画期的に膿覆垢襯ぅ鵐僖トをeちうる。

以下、OpenAI社のKenneth Stanley の2002Qのb文(参考@料4)と、Autodesk AI LabのAdam Gaierの2019Qのb文(参考@料5)の内容を参考にしながら、深層ニューラルネットワークにおける深層学{とネットワーク探索\術が融合しつつあるとみる筆vの見解を紹介したい。


ボールドウィン効果

今から約100Qi、盜颪凌翰学vであるジェームズ・マーク・ボールドウィン(1861-1934)は、「後W的学{によって耀uされていた形も,次にC伝的に耀uされ先W的ξに転化する」との説を提した(参考@料6)。そして、その仮説は、トロントj学のGeoffrey HintonらのQ機シミュレーションによって、1987Qに確認されていた(参考@料7)。

深層学{の創始vであるGeoffrey Hintonは、深層学{\術の研|を推し進めた当初から、進化的Q(Evolutionary Computation)やC伝子アルゴリズム(Genetic Algorithms)をニューラルネットワーク\術開発の菘世ら_していたというのは驚きである(R3)。

ボールドウィン効果は、ニューラルネットワークv路の語で表現すると、「ランダムに変異しうるネットワークトポロジー(v路アーキテクチャと同I)を学{データによって別すると、そのv路アーキテクチャは改良される」となる。

1993Qに、当時英エディンバラj学の数学科教bであったニック・ラドクリフは、「Connectivity(神経細胞間のT線の最適化)とWeights(シナプスT合パラメータの最適化)を組み合わせた統合化スキームはこの分野の@Jといえる」と、両\術の融合を求めていた(参考@料8)。

これらのヘBが、今日の「jS発據廚良枩个箸覆辰突茲燭里任呂覆い世蹐Δ?


深層学{\術とニューラルネットワーク探索\術の竿

改めて、ニューラルネットワーク探索\術を深層学{\術と竿罎靴討澆燭ぁ
H層ニューラルネットワークは、深層学{(Deep Learning)\術によってN内神経細胞の後W的学{プロセスを模倣(エミュレーション)しようとする試みであったのに瓦掘▲縫紂璽薀襯優奪肇錙璽探索\術は、「|」の進化の壻で進む「先W的な神経v路構]の進化」を模倣しようとする(表1)。

Deep Neural Networkへの深層学{\術とニューラルネットワーク探索\術の竿 / 筆v作成

表1 Deep Neural Networkへの深層学{\術とニューラルネットワーク探索\術の竿罅 平質愕{\術では、そのネットワークトポロジー、ハイパーパラメータ、性化関数をエンジニアの経xを元に設定する要があるが、ニューラルネットワーク探索では、それらの最適化をO動化する。) 出Z:参考@料4と5を元に筆vが作成。


深層学{は、誤差情報逆伝搬法(Back Propagation、BP)と確率的勾配T下法 (Stochastic Gradient Descent、SGD)というパラメータ最適化のための}法をuて開}したが、それらで行うQの徴は以下であった。
・ ニューロンの演Q(入情報)は、ベクトルや行`とする。
(ベクトルや行`の成分値は、Hくの場合、0から1の間の小数点値)
・ 演Qでは、ベクトルと行`間の積Qや和Q、およびベクトル成分値の微分(差分の除Q)をいる。
・ フィードバック(再帰)型のアルゴリズムを含み、Qを反復することがある。
・ 要に応じて(線形処理を行わない場合)、演Qの出値を「確率値」と解圓垢襦

深層ニューラルネットワークv路の要素v路である単層分のv路は、集積v路でしばしば現れるデコーダv路の構成に瑤討い襦平2)。集積v路のデコーダv路を構成するb理演Q子(AND、OR、等)を、ニューロンモデルにき換わったような構]をDるが、ニューロンモデルの出値は、k般的には、”0“と“1“の間の数値を出するとされ、その値を「確率値」と解圓垢襪里任△襦

もちろん現在の集積v路のb理ゲートを~使して、小数点演Qや確率演Qを行えるし、「確率を出するv路」を構成することもできる。 だが、ニューラルネットワークv路の動作を{う時、b理Oが確率的になったとみなす気分かり易く、恐らくそのように解圓靴気数学表現との官をDりやすくなる。


単層のニューラルネットワークv路と、集積v路でしばしば現れるデコーダv路の比較 / 筆v作成

図2 単層のニューラルネットワークv路と、集積v路でしばしば現れるデコーダv路の比較 ニューラルネットワークv路は、b理演Q子(NAND、NOR、等)からなる組み合わせb理v路を、ニューロンモデルv路にき換わったような構]をDる。 出Z:筆vが作成


そもそも、「b理」には2|類あるともいえるだろう。
kつは、数値Qにて使われる「b理」であり、それは、現在の集積v路のb理ゲート(AND、OR、等)からなるb理v路を組み合わせて構成するのが適切であり、1ビットの値は“0”もしくは“1”の2値である。 数値Qにて使われる「b理」は、コンピュータやネットワークを発達させて来た。

もうkつは、言語で表現される「b理」である。「真」を“1”に、「偽」を“0”に官させることがもっともらしいが、k般に言語表現では、真とも偽ともつかない内容がHく、本的にファジー(確率的)なX表現をHして表現した気分かりやすい。言語表現の処理には、確率的b理のプロセスを表現するニューラルネットワークv路が向くのである。

現在進行中と言われるAI革命(参考@料9)は、言語表現の演Qを効率的に行う「ファジーなb理」をエミュレーションするv路プラットフォームの1世代アーキテクチャが見いだされた段階と言えるのではないかと筆vは思う。

そのv路プラットフォームをいてアーキテクチャ探索に相当する演Qを効率的に行うには、以下の要Pが満たされる要がある。
・ ネットワークトポロジー情報のランダムな改変(値の擾乱操作)が容易なこと
・ 試行T果を収集(集合化)が容易なこと
・ 収集T果のh価と別が容易なこと

ところで、ニューラルネットワークv路のアーキテクチャの探索では、フィードバック(再帰)型のアルゴリズムをいない。 |の進化はフィードバック(再帰)しないからである。 しかし、ランダムな改変(値の擾乱操作)を常にHくの試行し、h価を行うため、探索時のQ量は膨jとなる。 に、別されたネットワークv路のトポロジーは、後W的な学{に相当するプロセスにて調Dされる要があるだろう。

但し、そのような動作を的に考えようとするとjきな問があった。ニューラルネットのアーキテクチャ探索を行うネットワーク空間(もしくはプラットフォーム)をどのように定Iし、表現し、設定するかはOではなかったのである。


Transformer\術はニューラルネットワーク探索の探索空間を提供した

收AIのニューラルネットワーク模は、2020Q以来、驚くほど巨j化した。500GBをえるパラメータを~するモデルも相次いで発表されている(参考@料9)が、筆vは、「この巨j化は、ニューラルネットワーク探索のプラットフォームとして要なjきさであった」と見る。

いずれのモデルにおいても導入されているAttention機構(参考@料10、11)は、そのネットワークT線を使うか使わないかのゲート機Δ鱆~しており、ネットワーク構]の進化を模倣表現するスイッチv路として適切だったからである。

Attention機構を△┐申j模ネットワークは、C伝子の変異を模倣するためのパラメータ空間を提供した。 パラメータ空間がjきい気、よりHくの進化を探索できる。だからこそ巨j化すべきだったといえる。

次に、ネットワーク探索と收AIの深層学{の関係を定めなくてはいけない。シームレスに行えるのかもしれないが、教師無し学{と教師~り学{で両vを使い分けることも考えられる。「|の進化」を模倣する先W的学{後には、ネットワーク中の不要な枝を剪定し、~S化してから、後W的学{のプロセスを開始するという扱いも可Δ世蹐Α また、後W的学{のプロセスを行った後に、再度、不要な枝を剪定、~S化を行うということも考えられるし、後W的学{のプロセスを行った後の「收AI」としてのコンテンツ出後に{加の学{を行うということも考えられる。


ニューラルネットのアーキテクチャ探索を行う@プラットフォームv路は今後ハードウエア化する

收AIニューラルネットワークのj躍進の扉を開いたのは、2017QにGoogle社が発表したTransformer\術であるといわれている(参考@料11)。 2020Q以T、巨j化を開始した收AIニューラルネットワークは、翻lや文章收にいて、V画收、動画收、音楽收にて実化iのX況に辿りいている。

には、コンピュータプログラム作成や、数学問の証のような科学\術の探求サポートなどの分野での応が期待されている(参考@料9)。

筆vは、今後、以下の菘世任瞭宛にR`しようと思う。
 ・ 收AI改良の次のステップ
(異|の收ξへの官、Multi-Modal化、@化だろう)
 ・ ニューラルネットワーク探索可Δ淵廛薀奪肇侫ームの専ハードウエア化
(確率的b理の表現に適したv路をいたv路のアーキテクチャはどのようになるのか?)
・ 集積v路の設ξへの応

ニューラルネットのアーキテクチャの探索が、人間よりも良いv路を設(探索)し、より良い設図Cを收する\術となる時、そのv路プラットフォームをいた收AIが社会や噞に及ぼす影xはり瑤譴覆い曚匹暴jきいと、筆vは思う。


R
1. 收AIとは、比較的少ない言語`を入として、Q|の文章や、V画、動画、音楽、コンピュータプログラム等のコンテンツを常に高]に出するニューラルネットワークv路の\術をいう。予めj量の文章を使って、単語間に見出されるi後関係確率や関連性確率を学{した收モデル(参考@料13)を抽出し、ニューラルネットワークに保eさせている。 R`度の高いOpenAI社のChatGPTは、に、「人間の指導」ともいえるトレーニングを行い、より違和感の少ないコンテンツを出するようにしている(参考@料12)。
2. Attention機構は、盜ServiceNow社のBahdanauらが2015Qのb文(参考@料11)で提した単語や図形情報間の関連性の咾気魍{したデータを元に、入された文章や画気R`霾や文脈等の気鯑暗に学{し、ニューラルネットワークの処理の進tをU御する機構。
Google社のVasmaniらは、2017Qに、Attention機構のU御するエンコーダ-デコーダタイプの文章翻lニューラルネットワークをbじ、そのアーキテクチャをTransformerと}んだ(参考@料10)。 TransformerのAttention機構は、ニューラルネットワークのi段層が出した情報の中のR`すべき情報を通圓気察R`すべきでない情報をHきVめるようなゲート的U御を行う。
3. 筆vは、「トポロジー(v路アーキテクチャ)をコンピュータシミュレーションによって進化させる\術が現実のものとなろうとしている」ことを瑤袒劃とした。 集積v路のアーキテクチャも收AIから出する可性があると思えたからである。

参考@料
1. 「マイクロソフト、オープンAIへの最j100億ドル投@で協議」、Bloomberg (2023/01/10)
2. 「次なるテクノロジーのSはメタバースではない。ジェネレーティブAIのjSがやってくる」、Wired (2023/01/26)
3. 「グーグルも会B型AIと検索を統合へ。ChatGPT眼^の詳細は発表会でらかに?」、Wired (2023/02/08)
4. Stanley, K.O. and Miikkulainen, R., “Evolving neural networks through augmenting topologies”, (2002)
5. Gaier, A. and Ha, D., “Weight Agnostic Neural Networks”, (2019)
6. Baldwin, M.J., “A New Factor in Evolution”, (Jun 1896)
7. Hinton, G. E. and Nowlan, S. J., “How learning can guide evolution”, (1987)
8. Radcliffe, N.J., “Genetic set recombination and its application to neural network topology optimization”, (1933)
9. Thompson, A.D., “Integrated AI: The sky is infinite (2022 AI retrospective)”, (2022)
10. Vaswani, A., et al., “Attention Is All You Need”, (2017)
11. Bahdanau, D., et al., “Attention-Based Models for Speech Recognition”, (2015)
12. OpenAI社のホームページの記, “Aligning Language Models to Follow Instructions”,  
Aligning Language Models to Follow Instructions (openai.com)
13. KI憲、「人工Δ悗量O(4);Bする構]」、セミコンポータル (2021/10/07)

ごT見・ご感[
麼嫋岌幃学庁医 天胆繁嚥強繁麗岱寄住| 91醍狭娼瞳牽旋壓濆杰| 天胆菜繁決髄來鞭xxxxx島邦| 忽恢撹繁忝栽消消冉巖娼瞳| 嶄猟忖鳥眉雫尖胎唹垪| 天胆及匯匈検薦唹垪| 忽恢眉雫壓濆杰寛シ| 95窒継鉱心悶刮曝篇撞| 晩云撹云繁篇撞| 冉巖忝栽丕坩敢弼| 昆忽娼瞳牽旋匯曝屈曝眉曝| 爺爺孤爺爺荷爺爺孤| 消消娼瞳某沃互効亂| 槻繁嚥培住議圭隈| 忽恢冥雑壓濔瞳匯曝屈曝| www.henhenai| 晩昆音触返字篇撞壓濆杰| 冉巖弼翆翆匯曝屈曝眉曝| 楳楳楳爾秤篇撞壓炯醫| 匚匚娼瞳篇撞匯曝屈曝| 消消忽恢娼瞳袈甥亜| 襖謹勸潤丗一巷片33蛍嶝| 忽恢匯雫互賠窒継鉱心| 8x撹繁壓澣舐| 撹繁窒継咸頭窒継鉱心| 冉巖av涙鷹廨曝壓潦| 槻溺匯斤匯窒継篇撞| 忽恢溺繁18谷頭邦寔謹1| 99壓灣斛瀛啼誼盞冓啼宜杰| 晩云嗽間嗽海匯序匯竃渇瓦| 冉巖天巖晩昆忝栽| 桜束戦音沢勞桜束抑app| 忽恢扉悶XXXX黛悶784寄季| 嶄猟忖鳥匯曝屈曝眉曝岱鷹 | 曾倖弌頃匯軟餓餓| 隆諾弌14牢壽涙鷹篇撞利嫋| 販低夊壓濔瞳窒継| 弼匯秤匯岱匯戴仔| 忽恢牽旋匯曝篇撞| a谷頭壓濘監窒継| 涙鷹繁曇娼瞳匯曝屈曝|