2025年のNVIDIAは、GPUの性能競争だけでなくネットワーク・パッケージング・供給網・ソフトまでを束ねる「AIファクトリ」志向を鮮明にした。まず1月16日、ジェンスン・フアンCEOが台湾で、Blackwell世代でCoWoS-L(大面積インターポーザ)へ比重を移すと宣言。続く3月18日には、NVIDIAが主催するAIと高性能コンピューティングの世界最大級の技術カンファレンス「GTC 2025」において、シリコンフォトニクス対応のスイッチ群(Spectrum-X/Quantum-X)と推論最適化ソフト群(Dynamo)を発表し、ラック全体を前提にした設計へ踏み込んだ。5月19日には「DGX Cloud Lepton」を公表し、複数のGPUクラウドを束ねる“計算リソースのマーケットプレイス”を打ち出した。8月27日の決算では売上高は約467億USD、中国向けH20の販売ゼロを報告。9月22日にはOpenAIと10GW規模のNVIDIAシステム導入に向けた戦略提携を発表した。
本稿は、①ラックスケール化、②DPU/ネットワーク、③先端パッケージング、④「設計企業にとどまらない」動き、の4点からNVIDIAが見据えている半導体の未来を考察する。
ラックが最小単位になる——GTCが示した設計の重心移動
「GTC 2025」でNVIDIAは、GPU単体よりラックスケール(ラック全体を1つの計算装置として設計)を前面に出す方針を示した。その鍵を握るのは、NVLink/NVSwitchと、推論・リーズニング(段階的思考)まで含めたスループットを押し上げる最適化ソフト群(Dynamoなど)である。結果として調達・実装は「サーバー台数」ではなく「ラック構成とファブリック」を基準に見積もる前提へ移る。装置・基板・冷却・電源・ケーブルまで含めた“チップ外の設計条件がTCO(総保有コスト)を左右する度合いは一段と高まった。
ネットワークがボトルネックを決める

NVIDIAは、1.6Tbps/ポート級を掲げるシリコンフォトニクス対応スイッチ群(Spectrum-X/Quantum-X)を提示し、エネルギー効率3.5倍・可用性10倍という指標でAIファクトリーのボトルネック解消を狙う。TSMC、Coherent、Corning、Foxconn、Lumentum、SENKOとの協業は、光と電気をまたぐ供給網の再編を意味する。
同時にDPU(BlueField-3)の役割が現実化している。セキュリティやストレージ、ネットワーク処理をCPUからDPUへオフロードすることで、GPUの実効稼働率を高める設計が通信事業者のエッジまで広がった。
“量から型へ”に競争軸が移る

先端パッケージングは、AI向けGPUの歩留まり・熱・実装密度を決める最重要要素である。ジェンスン・フアンCEOの発言どおり、NVIDIAはBlackwellでCoWoS-Lの比重を高め、HopperはCoWoS-Sを併行する構えだ。ここで重要なのは、「量を積む」から「SKU別に“型合わせ”する」への軸足移動である。HBMの積層方式、インターポーザ寸法・材料、RDL(再配線層)、基板の反り・CTE(熱膨張係数)など、個々の案件に応じた適合設計と立ち上げ速度が勝敗を分ける。
なお、TSMC側の能力増強については、2025年3月4日に米国での投資拡大を公式発表し、先進パッケージ施設2棟の建設計画を示した事実が裏付けになる。これはNVIDIAを含む顧客需要に対応したグローバル供給力の強化であり、AIファクトリ時代のパッケージング供給制約を緩和する材料と言える。
チップ販売にとどまらずインフラ案件そのものを束ねる

NVIDIAのAIプラットフォーム「DGX Cloud Lepton」は、複数GPUクラウドを束ねるコンピュート・マーケットプレイスであり、どのクラウドで何をどれだけ借りるかという意思決定をその場で完結させる。さらにNIM(推論マイクロサービス群)やBlueprintは“すぐ動く用途別スタック”を提供し、プラットフォームおよびプログラミングモデルであるCUDA以外のレイヤでもエコシステム主導権を広げることができる。
NVIDIAの8月27日決算では売上は約467億USD、主力のデータセンターが牽引した。9月22日のOpenAIとの10GW導入に向けた提携は、チップ販売にとどまらずAIデータセンターというインフラ案件そのものを束ねる意志の表れである。
NVIDIAが見据える “AI工場の生産性”を競うこと

NVIDIAが見据えているのは、チップ個体の優劣ではなく“AI工場の生産性”を競うことである。これにおいては、高機能基板、接合・封止材料、光学部材、液冷・電源機器に強みを持つ日本勢が優位に立てるだろう。実務では、①NVLink/NVSwitch前提の実装パラメータ(反り、CTE、ケーブル配線、ラック内圧損)を顧客と早期に共同検証する、②DPU併用の効果(GPU稼働率、Gbps/W、ラック当たりPFLOPS)を定量で提示する、③“AIファクトリ案件”として建屋・電力・冷却を含む仕様確定プロセスに初期から参画する――の3点が成功する秘訣となる。“GPUの外側”を設計対象として取り込み、型合わせ速度の速さで競うことこそが、NVIDIAが見据えている未来の半導体なのだ。
*この記事は以下のサイトを参考に執筆しました。
参考リンク
- NVIDIA Announces Financial Results for Second Quarter Fiscal 2026
- NVIDIA、2026年会計年度第2四半期の業績を発表
- Nvidia CEO says its advanced packaging technology needs are changing(Reuters)
- Everything Nvidia announced at its annual developer conference GTC(Reuters)
- NVIDIA Announces Spectrum-X / Quantum-X Silicon Photonics Networking Switches(Press)
- NVIDIA Announces DGX Cloud Lepton – a GPU Compute Marketplace(Press)
- OpenAI and NVIDIA Announce Strategic Partnership to Deploy 10 Gigawatts of NVIDIA Systems(Press)
- TSMC Intends to Expand Its Investment in the United States to US$165 Billion(Press/先進パッケージ施設2棟を明記)
- AI data center growth: Meeting the demand(McKinsey, 2025年4月)