Hot Chips の注目トピック: あらゆる規模の推論、ネットワーキング、AI イノベーション — すべて NVIDIA 上に構築

トレンドセッター
この記事を読むのにかかる時間: 5

AIによる推論、推論、そしてネットワークは、来週開催されるHot Chipsカンファレンスの参加者にとって最優先事項となるでしょう。

産業界と学界のプロセッサおよびシステムアーキテクトのための重要なフォーラムであるHot Chipsは、8月24日から26日までスタンフォード大学で開催され、AIファクトリーの発展と1兆ドル規模のデータセンターコンピューティング市場の収益拡大につながる最新のイノベーションを紹介します。

カンファレンスでは、NVIDIAはGoogleやMicrosoftなどの業界リーダーと共に、8月24日(日)に開催される「チュートリアル」セッションで、データセンター向けラックスケールアーキテクチャの設計について議論します。

さらに、NVIDIAの専門家が4つのセッションと1つのチュートリアルで講演し、以下の点について詳しく説明します。

NVIDIA ConnectX-8 SuperNICを含むNVIDIAネットワークは、ラックスケールおよびデータセンタースケールでAI推論を実現します。 (NVIDIA ネットワークアダプターおよびシステムオンチップ担当主任アーキテクト、Idan Burstein 氏)
NVIDIA GeForce RTX 5090 GPU を含む NVIDIA Blackwell アーキテクチャを基盤とするニューラルレンダリングの進歩と推論の飛躍的な進歩は、次世代のグラフィックスおよびシミュレーション機能を実現します。(NVIDIA アーキテクチャ担当シニアディレクター、Marc Blackstein 氏)
シリコンフォトニクスを統合した Co-Packaged Optics (CPO) スイッチは、銅線ではなく光速ファイバーを使用することで、より高速かつ低消費電力で情報を送信し、効率的で高性能なギガワット規模の AI ファクトリーを実現します。本講演では、分散型データセンターを AI スーパーファクトリーに統合するための新しいスケールアクロステクノロジー、NVIDIA Spectrum-XGS Ethernet についても取り上げます。(NVIDIA ネットワーキング担当シニアバイスプレジデント、Gilad Shainer 氏)
NVIDIA GB10 スーパーチップは、NVIDIA DGX Spark デスクトップスーパーコンピューターのエンジンとして機能します。 (NVIDIA シニア エンジニア、アンディ・スケンデ氏による講演)

これらは、NVIDIA の最新テクノロジが推論を加速させ、あらゆる場所、あらゆる規模で AI イノベーションを推進する仕組みの一部です。

NVIDIA ネットワーキングが AI イノベーションを大規模に促進

AI 推論、つまり人工知能システムが複数の AI 推論パスを通じて複雑な問題を分析・解決するには、ラックスケールのパフォーマンスが不可欠です。最適なユーザーエクスペリエンスを効率的に提供するために、この要件を満たす必要があります。

今日の AI ワークロードを支えるデータセンターでは、ネットワーキングが中枢神経系として機能し、サーバー、ストレージデバイス、その他のハードウェアといったすべてのコンポーネントを、単一の統合された強力なコンピューティングユニットに接続します。

NVIDIA ConnectX-8 SuperNIC

Burstein 氏の Hot Chips セッションでは、NVIDIA のネットワーキング テクノロジ、特に NVIDIA ConnectX-8 SuperNIC が、高速、低レイテンシ、マルチ GPU 通信を可能にし、市場をリードする AI 推論パフォーマンスを大規模に実現する仕組みについて詳しく説明します。

NVIDIA ネットワーキング プラットフォームの一部である NVIDIA NVLink、NVLink スイッチ、NVLink Fusion は、スケールアップ接続を実現します。サーバー内およびサーバー間で GPU とコンピューティング要素をリンクすることで、超低レイテンシかつ高帯域幅のデータ交換を実現します。

NVIDIA Spectrum-X Ethernet は、クラスター全体を接続するためのスケールアウト ファブリックを提供し、膨大なデータセットを AI モデルに迅速にストリーミングし、データセンター全体で GPU 間通信をオーケストレーションします。Spectrum-XGS Ethernet のスケールアクロス テクノロジーは、Spectrum-X Ethernet の卓越したパフォーマンスとスケールを拡張し、複数の分散データセンターを相互接続することで、ギガスケールのインテリジェンスを実現する AI スーパーファクトリーを構築します。

分散 AI データセンターを NVIDIA Spectrum-XGS Ethernet で接続します。

Spectrum-X Ethernet の中核を成す CPO スイッチは、大規模な AI インフラストラクチャのパフォーマンスと効率性の限界を押し広げます。Shainer の講演では、この点について詳しく説明します。

NVIDIA GB200 NVL72は、シングルラックに収まるエクサスケールコンピューターです。36基のNVIDIA GB200 Superchipを搭載し、各チップには2基のNVIDIA B200 GPUと1基のNVIDIA Grace CPUが搭載されています。これらは、これまでで最大のNVLinkドメインで相互接続されています。NVLinkスイッチは、AIおよびハイパフォーマンスコンピューティングのワークロード向けに、毎秒130テラバイトの低レイテンシGPU通信を提供します。

NVIDIAラックスケールシステム。

NVIDIA Blackwellアーキテクチャを採用したGB200 NVL72システムは、推論性能を飛躍的に向上させます。

NVIDIA BlackwellとCUDAが、数百万人の開発者にAIを提供

NVIDIA GeForce RTX 5090 GPU(Blackwellアーキテクチャを採用し、Blackstein氏の講演で紹介予定)は、NVIDIA DLSS 4テクノロジにより、最新のゲームのパフォーマンスを2倍に向上させます。

NVIDIA GeForce RTX 5090 GPU

ゲーム向けのニューラルレンダリング機能を追加することで、最大10倍のパフォーマンス、10倍のフットプリント拡大、そして10倍の設計サイクル短縮を実現し、コンピューターグラフィックスとシミュレーションのリアリティ向上に貢献します。これにより、低消費電力でスムーズで応答性に優れたビジュアル体験を提供し、キャラクターやエフェクトのリアルなシミュレーションを向上させます。

世界で最も広く利用されているコンピューティングインフラストラクチャであるNVIDIA CUDAにより、ユーザーはNVIDIA Blackwellを使用してAIモデルをどこにでも導入・実行できます。

世界中で数億台のGPUがCUDAを実行しており、NVIDIA GB200 NVL72ラックスケールシステムからGeForce RTXおよびNVIDIA RTX PRO搭載のPCやワークステーションまで、その実力は多岐にわたります。また、Skende氏のセッションで紹介されたNVIDIA GB10搭載のNVIDIA DGX Sparkも近日中にリリース予定です。

アルゴリズムからAIスーパーコンピューターへ — LLM向けに最適化
NVIDIA DGX Spark

コンパクトなパッケージで強力なパフォーマンスと機能を提供するDGX Sparkにより、開発者、研究者、データサイエンティスト、そして学生は、デスクトップで生成AIの限界を押し広げ、さまざまな業界のワークロードを高速化できます。

NVIDIA Blackwellプラットフォームの一部として、DGX Sparkは、特に大規模言語モデル(LLM)における効率的なエージェント型AI推論を可能にする低精度数値形式であるNVFP4をサポートしています。NVFP4の詳細については、こちらのNVIDIAテクニカルブログをご覧ください。

オープンソースコラボレーションが推論イノベーションを推進

NVIDIAは、LLMと分散推論のAIワークロードを高速化および最適化するために、複数のオープンソースライブラリとフレームワークを高速化しています。これには、NVIDIA TensorRT-LLM、NVIDIA Dynamo、TileIR、Cutlass、NVIDIA Collective Communication Library、そしてNIXが含まれており、数百万ものワークフローに統合されています。

開発者が好みのフレームワークで開発できるように、NVIDIA は主要なオープン フレームワーク プロバイダーと連携し、FlashInfer、PyTorch、SGLang、vLLM などのモデル最適化を提供しています。

さらに、NVIDIA NIM マイクロサービスは、OpenAI の gpt-oss や Llama 4 などの人気のオープン モデルで利用可能であり、開発者は、好みのインフラストラクチャ上で、セルフホスティング モデルの柔軟性とセキュリティを備えたマネージド アプリケーション プログラミング インターフェイスを簡単に運用できます。

推論とアクセラレーテッド コンピューティングの最新の進歩について、NVIDIA の Hot Chips で詳細をご覧ください。

カテゴリ: 企業 | データセンター | ジェネレーティブ AI | ネットワーキング
タグ: 人工知能 | CUDA | イベント | GeForce RTX | GPU | ハードウェア | ハイパフォーマンス コンピューティング | 推論 | NVIDIA NIM | NVIDIA RTX | NVLink | オープンソース

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH