Intel AI Everywhere戦Sの1、オフラインPC屬收AIが可Δ
Intelは、AI Everywhere戦Sを採ることをx言した。その代表的な例としてAIエンジンを集積したパソコン向けCPU「Core Ultra(コード@Meteor Lake)」(図1)を発売するとともに、サーバー向けのCPU「5世代のXeonプロセッサ」にもAIエンジンを集積した。さらにAI専チップ「Gaudi 3」を2024Qに発売することもらかにした。

図1 Intelの最新SoCのPC向けCore Ultraプロセッサ 出Z:Intel
IntelのAI Everywhere戦Sのキモは、收AIのような巨j(lu┛)なLLM(j(lu┛)模言語モデル)から、パソコンのプロセッサや端レベルまでAI\術が使えるようにすることである。AIは\術であり`的ではない。
AIは今やさまざまなところに使われ、これまでにない機Δ鮑遒蟒个靴討い襦N磴┐弌ST Microelectronicsは組み込みシステムに関するt会Techno-Frontier 2023において、~機にAIをいて、使うモーターの最適なv転数に合った電流を流すことによって消J電を削した(参考@料1)。これはSTのマイコンにAI機Δ鮟言僂靴討い襦もうkつの例として、Googleの最新スマートフォン「Pixel 8」シリーズには、AIを使ってズームインの解掬戮屬欧討い襦これまでのカメラだとズームの拡j(lu┛)はレンズとデジタルズームのξでまってしまい、限cがあった。それをズームインしてぼやけずに拡j(lu┛)できるという画素完機ΔAIで完すべき形Xを学{させて、別の^真を拡j(lu┛)してもくっきりと見えるようにした。
つまりAIは、もっと機Δ魍判j(lu┛)したい、あるいは性Δ屬欧燭ぁ⊇萢時間をもっと]くしたい、などの要求に応える専の機Δ鮗存修垢襪燭瓩龍\術である。AI=賢い、何でもできる、というlではしてない。学{させたことだけを実現する\術である。AIがパソコンやスマホに載るようになると、ちょっとしたさまざまな要求に応えられるようになる、逆に言えば、AIエンジンをマイコンやSoCに集積させることができるようになるため、パソコンやスマホ笋任呂匹里茲Δ糞ΔAIで実現すべきかがシステム開発vには問われるようになる。
今vIntelがパソコン向けにAI機Δ鮑椶擦織廛蹈札奪機SoC:System on Chip)Core Ultraで~単な收AIをクラウドと接せずに使えるようなデモを見せた。これは、絵をWくための收AIであり、例えば「人颪琉(j┫)派的な絵をWいてほしい」と依頼すると、そのような絵を出し、その後「キュービズム的な絵をWいてほしい」と頼むとピカソのような絵を出する、というデモであった。いずれも10〜15秒かかったが、インターネットとは切り`したデモであった。このCore Ultraは12月18日に国内で発売した。
図2 CPUとGPU、NPUを1パッケージに実◆―儘Z:Intel
このチップでは、CPUとGPU(グラフィックスをWく)、NPU(ニューラルプロセッシング)のチップを集積した先端パッケージに実△靴討い襦平2)。TSVを使った3D-IC\術Feverosを使い、3D-ICや2.5D-ICを使い、これまでのパソコン向けSoCよりも単位消J電当たりの性Δ高い。CPUには最j(lu┛)6コアのP-コア(性νダ茲CPUコア)、8コアのE-コア(電効率優先のCPUコア)そして、に消J電の低いLP E-コアを2コア集積した。GPUにはインテル独OのArcコアを使い、Ray Tracingv路\術を集積した。AI専のNPUはニューラルネットのデータフローコンピューティングのストリームを実行するようだ。
收AIで画気鮟侘するデモでは、LLMのk|であるLLaMa2-7Bモデルをオフラインで実行したが、CPUとGPU、そしてNPUを同時に割り振りながら実行している。LLMのEncoderモデルをNPUで実行したという。
図3 5世代のXeonスケーラブルプロセッサ 出Z:Intel
発表したもうkつのSoCである5世代のXeonスケーラブルプロセッサ(開発コード@Emerald Rapids)(図3)は、CPUそのものを最j(lu┛)64コア集積したデータセンター向けのSoCである。4世代のXeonスケーラブルプロセッサと比べ、平均的な性Δ1.21倍、AIの推b性Δ郎能j(lu┛)1.42倍などの改良が加えられている。
性Ω屬離ギはメモリである。メモリ]度を高めると共に、CPUから最も遠いキャッシュメモリであるLLC(Last Level Cache)のサイズをi世代の3倍に\やした。メモリの転送レートは最j(lu┛)5600MT/sで、LLCメモリのj(lu┛)きさは最j(lu┛)320MBもある。CPUあたり8チャンネルのDDR5をサポートし、CPU間のUPI(Ultra Path Interconnect)2.0官]度は最j(lu┛)20GT/sと高]になった。このチップは2024Q1四半期から発売される予定となっている。
図4 5世代Xeonスケーラブルプロセッサ(})とCore Ultra(左})をeつインテル代表D締役社長の]v国
Intel日本法人インテル代表D締役社長の]v国は、クラウド屬任AIアクセラレータとして、2024Q発売の新Gaudi 3に関しても触れたが、Intel 5プロセスを使う予定であることだけにとどめた。現在使われているGaudi 2と比べBF16演Q性Δ4倍、ネットワーク帯域幅が2倍、HBM帯域幅が1.5倍にそれぞれ\えるとしている。また、AI Everywhere戦Sの|極はエッジにおける組み込みシステムになるだろう、と同は予[する。IntelはクラウドからエッジまでAIを?q┗)できるUをDえることになりそうだ。
参考@料
1. 「SiCトップのSTMicro、パワーだけでなくエッジAI含めソリューションでM負」、セミコンポータル (2023/08/09)
2. 「AIチップ、クラウドの收AIからエッジでの専的な收AIへ拡j(lu┛)」、セミコンポータル (2023/10/10)