Intel、4世代のXeonプロセッサでxv擇覆襪、3D-IC/EMIBで高集積
Intelがようやくコード@「Sapphire Rapids」のCPUを4世代のXeonスケーラブルプロセッサとして量にこぎつけた。4個のCPUダイをEMIB(Embedded Multi-die Interconnect Bridge)で接したXeonスケーラブルCPUに加え、ICパッケージ内にHBMメモリを集積したXeon CPU MAXシリーズとGPU MAXシリーズ(コード@Ponte Vecchio)も同時に発表した。

図1 4世代のIntel Xeonスケーラブルプロセッサ 出Z:Intel
この4世代のプロセッサをIntelは、実際の現場で使うワークロードを最優先したと語り、ワークロードの性ΔSPECintなどのベンチマークテストでの性Δ箸楼曚覆襪海箸鮨した(図2)。つまりこれまでとは違い、「@」のCPUではなく、実際のワークロード性Δ鰺ダ茲靴拭専的」なプロセッサに仕屬欧拭
図2 ベンチマークでの性Δ伴損斑での性Δ禄jきく違ってきた 出Z:Intel
そのために、CPUコアに加えて、Q分野のアクセラレータも集積した(図3)。つまり、@のCPUに、AI、通信ネットワーク、ストレージ、データセンター、HPC(High Performance Computing)に化したアクセラレータを加えた。Q分野に適したシリーズを提供する。例えば、AI(機械学{)ではAMX(Advanced Matrix Extensions)と}ぶアクセラレータを搭載しており、CPUの演Q負荷を軽くする。このアクセラレータはTensorFlowやPyTorchなどの言語をサポートする。5G基地局などの通信ネットワークでは、Virtual RAN向けのAVX(Advanced Vector Extensions)アクセラレータを使う。ソフトウエア定Iのネットワークで使われるデータプレーン向けのソフトウエア開発の開発キット(DPDK)をTする。ストレージシステムからのアクセスにはDSA(Data Storage Accelerator)アクセラレータなどをWできる。
中でもAI機Δ魯如璽織札鵐拭爾任HPCでもエッジでさえも使われるため、実環境でのプロセッサではAIモデルのj小はあるものの、様々なで使われるようになってきた。このため、最ZのCPUやSoCにはHかれ少なかれ、AI(機械学{)機Δ搭載されるようになりつつあり、今vのXeonプロセッサでもAI専アクセラレータが集積された。
図3 AIや5G通信ネットワーク、ストリーミングなどごとのアクセラレータを集積した 出Z:Intel
そして周辺v路には最高]のDDR5メモリ官や、PCIe5.0の高]シリアルインターフェイス、高]メモリ向けのCXL 1.1次世代I/Oなどのインターフェイスや最j64GBのHBM2eメモリを搭載している。
今v、Xeon スケーラブルプロセッサに加えて出荷し始めたXeon MAXシリーズには、HBM2eメモリをICパッケージ内に内鼎靴討い襦このはスーパーコンピュータやデータセンターなどのHPC(High Performance Computing)向けのシリーズである。
それぞれのチップのアーキテクチャは図4のように構成されている。4世代のXeonスケーラブルプロセッサには3|類あり、モノリシックなCPUのMCCシリーズと、4タイルのCPUをEMIBで接したXCC、さらにこのXCCにHBMを4個搭載したがMAXシリーズである。XCCは最j60個のCPUコアからなる。
図4 4世代Intel Xeonスケーラブルプロセッサには3|類 左とのXCCとMAXシリーズは4チップレットをEMIB(白い配線霾)で接している 出Z:Intel
これらのCPUに加えて発表した、データセンター向けのGPUのMAXシリーズはコード@Ponte Vecchioと@けられ、先端パッケージ\術で作られている。このGPUは、Intelの3D-IC\術であるFoveros\術と、2.5Dで平C屬砲△襯船奪廖淵瀬ぁ貌を接するためのEMIBを使ってチップレット(Intelはタイルと}んでいる)を接している。合1000億トランジスタからなり、アクティブなチップレットが47個、FoverosWのスタックしたダイが16個、EMIBが11個搭載されている。EMIBは、シリコンインターポーザと違い、シリコンCを使わず、再配線層と電極パッドを△┐織船奪彳瓜里寮橙だけを`的とする小さな再配線層のシリコンダイである。
日本x場では、B都j学がスーパーコンピュータにXeon MAXシリーズ、筑Sj学がXeonスケーラブルプロセッサとOptaneメモリを導入することをめた。また、Nvidiaからも、来のデータセンターのサーバよりも25倍も高性ΔNvidia DGX H100にはNvidiaのTensor Core GPUをU御する4世代のXeon スケーラブルプロセッサが搭載されるようになる、という発表があった(参考@料1)。NvidiaのH100サーバ60以屬Xeonスケーラブルプロセッサが使われる。IntelのプロセッサとNvidiaのGPUの組み合わせでH100サーバは来のCPUだけのデータセンターサーバと比べ、エネルギー効率は3.5倍、TCO(運コスト)1/3以下になると見積もられている。
参考@料
1. "The Greenest Generation: NVIDIA, Intel and Partners Supercharge AI Computing Efficiency", Nvidia (2023/01/10)