TSMC、1.6nm相当のプロセス\術A16をo開
TSMCは2024Technology SymposiumをカリフォルニアΕ汽鵐織ララで開、2nmの次の1.6nmに相当する\術を発表した。先週、2024Q1四半期(1Q)におけるQ社のQが発表された。Intel、SK hynix、ルネサスエレクトロニクス、ソシオネクストなどがQを発表。收AI向けの学{ソフトを軽くするという動きもあり、AIプロセッサを集積するSoCへの期待が膨らむ。

図1 TSMCの日本における現在のプレゼンス 横p・j阪のデザインセンター、つくばの3D-IC R&Dセンター、y本のJASMに拠点
TSMCの2024 Technology Symposiumが始まった。この始まったと表現したのは、世cQ地でこれから順次開していくからだ。こういったイベントはロードショーと言われている。盜颪魯ースチン、ボストンと3カ所vったのち、欧Α湾、中国、イスラエルとvり、最後の6月28日に日本で開する予定となっている。今v、1.6nmプロセスノードに相当するA16プロセス\術を開発、2nmプロセスに相当するN2の次という位づけで、2026Qに量凮始するという画だ。Aはオングストロームから来た単位である。TSMCではN3Eプロセスを量しており、N2プロセスは25Qの後半に量する予定となっている。
A16プロセスは、ナノシートをWするGAA(ゲートオールアラウンド)トランジスタ\術と、裏C電源配線\術であるSuper Power Rail\術を使う次世代\術である。N2Pプロセスでの同じドレイン電圧条Pと比べて性Α米虻]度)が8~10%改し、同k]度なら15~20%消J電が少するとしている。集積度も10%向屬垢襦
TSMCはモノリシックな集積度向屬世韻任呂覆、先端パッケージをWする集積度向屬眇覆瓩討り、InFO(Integrated Fan-Out)やCoWoS(Chip on Wafer on Substrate)にき、System on Wafer(SoW)\術についても開発中であることを述べている。CoWoS\術ではAIチップなどのプロセッサとHBM(High Bandwidth Memory)を基屬吠造戮毒する2.5D\術であるが、3DスタックをWするSoIC(System on Integrated Chips)\術も確立したという。SoICと他のも同k基屬謀觝椶垢|極のSiP(System in Package)\術をユーザーは使えることができるとしている。ウェーハ屬SoICやHBMなどを集積するSoW\術は、コンピューティングξをこれまで以屬屬欧覿\術であり、にデータセンター内のコンピュータラックに匹發垢襯灰鵐團紂璽謄ングξをeつと見ている。狙いはもちろん高集積のAIコンピュータだ。
Intelが2024Q1Qの売幢YがiQ同期比9%\の127億ドルになったと発表した。Non-GAAP(会原А砲任稜幢Yに瓦垢覩W益率は45.1%、営業W益率は5.7%とCで、純W益も8億ドルのCとなった。iQ同期はC。CPUやSoCなどのグループの売幢YはiQ同期比17%\の119億ドルだが、Intel Foundryのそれは同10%の44億ドル、AlteraやMobileyeなどのその他靆7.75億ドル、Qセグメント間の_複を除き、合の売幢Yが127億ドルとなっている。
グループは33億ドルの営業Cだが、ファウンドリ靆腓25億ドルの営業Cとなっている。EUVの導入によりx場までのウェーハ処理期間が]縮してスピードが3倍に屬るため、今後ASP(平均単価)は屬ると期待している。Intel 18Aプロセスの6番`の顧客に瓦靴PDK 1.0(プロセス開発キット1.0)を2Qに提供し25Qi半に量凮始する画となっている。
SK Hynixの1Qでの売幢YはiQ同期比144%\でi期比でも10%\の12.43兆ウォン(1ウォン=0.11)となり営業W益も2.89兆ウォン、純W益1.92兆ウォンとなりCから脱出した。ルネサスの1Q売幢YはiQ同期比2.2%となったが3518億とし、営業W益率は32.3%を確保した。iQ同期と比べ、日本と中国の売屬それぞれ170億、50億のマイナス、欧Δ20億のマイナスだが、櫃肇▲献△プラスだったため相して2.2%のマイナスとなった。ソシオネクストの1Q(2023Q度4Qとなる24Q1〜3月期)売幢YはiQ同期比4.3%の516億、営業W益率14.7%で、純W益は58億のCとなった。2023Q度の売幢YはiQ度比14.8%\の2212億となり、営業W益率も16.1%を確保した。
收AIは別に応じたが発表された。MicrosoftはOpenAIに出@しているが、彼らのGPTシリーズとは別にもっと軽い「Phi-3」を開発した。スマートフォンのSoCプロセッサに集積したAI専プロセッサ内で動かせるように、学{パラメータ数は38億、70億、140億の3|類をTした。チャットGPTのGPT-3は1750億パラメータと巨j。また、Metaは新しいj模言語モデル「Llama3」を発表し、80億と800億パラメータの2つのモデルを提供する。