NVIDIA と AWS がフルスタックパートナーシップを拡大し、将来のイノベーションに不可欠な安全で高性能なコンピューティングプラットフォームを提供

トレンドセッター
この記事を読むのにかかる時間: 6

AWS re:Invent において、NVIDIA と Amazon Web Services は、相互接続技術、クラウド インフラストラクチャ、オープン モデル、フィジカル AI にわたる新たなテクノロジ統合により、戦略的コラボレーションを拡大しました。

この拡大の一環として、AWS はカスタム AI インフラストラクチャ向けプラットフォームである NVIDIA NVLink Fusion をサポートし、推論およびエージェント AI モデルのトレーニング向けの次世代 Trainium4 チップ、幅広いワークロードに対応する Graviton CPU、Nitro System 仮想化インフラストラクチャなど、カスタム設計のシリコンを導入します。

AWS は NVIDIA NVLink Fusion を使用することで、NVIDIA NVLink スケールアップ相互接続と NVIDIA MGX ラック アーキテクチャを AWS カスタム シリコンと組み合わせることで、次世代クラウドスケール AI 機能のパフォーマンスを向上させ、市場投入までの時間を短縮します。

AWS は Trainium4 を NVLink および NVIDIA MGX と統合するように設計しており、これは NVLink Fusion における NVIDIA と AWS による複数世代にわたるコラボレーションの第一弾となります。

AWS はすでに NVIDIA GPU を搭載した MGX ラックを大規模に導入しています。 NVLink Fusion の統合により、AWS はプラットフォーム全体にわたる導入とシステム管理をさらに簡素化できます。

AWS はまた、ラックやシャーシから電力供給や冷却システムまで、フルラックスケールの導入に必要なすべてのコンポーネントを提供する NVLink Fusion サプライヤーエコシステムも活用できます。

AWS の Elastic Fabric Adapter と Nitro System をサポートすることで、AWS 上の NVIDIA Vera Rubin アーキテクチャは、AWS のクラウド インフラストラクチャとの完全な互換性を維持しながら、お客様に堅牢なネットワークの選択肢を提供し、新しい AI サービスの展開を加速します。

NVIDIA の創業者兼 CEO であるジェンスン フアンは、「GPU コンピューティングの需要は急増しています。コンピューティング能力の向上は AI をよりスマートにし、AI のスマート化は AI の利用範囲の拡大を促し、AI の利用範囲の拡大はさらに多くのコンピューティング能力の需要を生み出します。AI の好循環が到来したのです」と述べています。 AWS Trainium4 に NVIDIA NVLink Fusion が加わることで、当社のスケールアップアーキテクチャと AWS のカスタムシリコンを統合し、新世代の高速化プラットフォームを構築できます。NVIDIA と AWS は共に、AI 産業革命のためのコンピューティングファブリックを構築し、あらゆる国、あらゆる企業に高度な AI をもたらし、世界のインテリジェンスへの道を加速します。

AWS の CEO である Matt Garman 氏は、「AWS と NVIDIA は 15 年以上にわたり共に歩んできましたが、本日はその歩みにおける新たな節目となります。NVIDIA と共に、私たちは大規模 AI インフラストラクチャを進化させ、お客様に最高のパフォーマンス、効率性、そしてスケーラビリティを提供します。AWS Trainium4、Graviton、Nitro System で今後 NVIDIA NVLink Fusion がサポートされることにより、お客様はこれまで以上に迅速にイノベーションを実現できる新たな機能を手に入れることができます。」と述べています。

スケールと主権の融合

AWSは、NVIDIA HGX B300 GPUやNVIDIA GB300 NVL72 GPUなど、NVIDIA Blackwellアーキテクチャを採用したアクセラレーテッドコンピューティングポートフォリオを拡充しました。これにより、お客様はトレーニングや推論に業界最先端のGPUをすぐに利用できるようになります。ビジュアルアプリケーション向けに設計されたNVIDIA RTX PRO 6000 Blackwell Server Edition GPUは、今後数週間以内にAWSで提供開始予定です。

これらのGPUは、AWS AI Factoriesを支えるAWSインフラストラクチャ基盤の一部です。AWS AI Factoriesは、世界中のお客様がAWSが運営する自社データセンターで高度なAIサービスと機能を活用するために必要な専用インフラストラクチャを提供する、新しいAIクラウドサービスです。同時に、お客様はデータの管理を維持し、現地の規制を遵守することも可能です。

NVIDIAとAWSは、主権を持つAIクラウドを世界中に展開し、AIイノベーションの真髄を世界に届けることに尽力しています。 AWS AI Factoriesの提供開始により、両社は世界中の組織にかつてないコンピューティング能力を提供する、セキュアで独立したAIインフラストラクチャを提供し、ますます厳格化するAI要件にも対応します。

公共部門の組織にとって、AWS AI Factoriesは連邦政府のスーパーコンピューティングとAI環境を変革するでしょう。AWS AI Factoriesのお客様は、信頼性、セキュリティ、スケーラビリティで知られるAWSの業界をリードするクラウドインフラストラクチャとサービスを、NVIDIA Blackwell GPUおよびNVIDIA Spectrum-X Ethernetスイッチを含むフルスタックのNVIDIAアクセラレーテッドコンピューティングプラットフォームとシームレスに統合できます。

この統合アーキテクチャにより、お客様は高度なAIサービスと機能にアクセスし、大規模なモデルのトレーニングと展開を行うと同時に、独自のデータを完全に管理し、地域の規制枠組みに完全に準拠することができます。

NVIDIA NemotronとAmazon Bedrockの統合によりソフトウェアの最適化が拡大

ハードウェアだけでなく、今回の提携によりNVIDIAのソフトウェアスタックとAWS AIエコシステムの統合も拡大します。 NVIDIA NemotronオープンモデルがAmazon Bedrockに統合され、お客様は本番環境規模で生成型AIアプリケーションとエージェントを構築できるようになりました。開発者はNemotron Nano 2とNemotron Nano 2 VLを利用し、テキスト、コード、画像、動画を高効率かつ高精度に処理する、専用のエージェント型AIアプリケーションを構築できます。

この統合により、高性能でオープンなNVIDIAモデルにAmazon Bedrockのサーバーレスプラットフォームから即座にアクセスできるようになります。お客様は、実証済みのスケーラビリティとインフラストラクチャ管理の手間を省くことができます。業界リーダーであるCrowdStrikeとBridgeWiseは、このサービスを利用して専用のAIエージェントを導入した最初の企業です。

AWS上のNVIDIAソフトウェアが開発者エクスペリエンスを簡素化

NVIDIAとAWSは、あらゆる企業のデータバックボーンを高速化するために、ソフトウェアレイヤーでも共同開発を行っています。Amazon OpenSearch Serviceは、GPUアクセラレーションによるベクター検索とデータクラスタリングのためのオープンソースライブラリであるNVIDIA cuVSを活用し、ベクターインデックス構築のためのサーバーレスGPUアクセラレーションを提供するようになりました。このマイルストーンは、非構造化データ処理におけるGPU利用への根本的な転換を象徴するものであり、早期導入企業は4分の1のコストで最大10倍高速なベクトルインデックス作成を実感しています。

これらの劇的なメリットにより、必要な時に適切な量のGPUパワーを提供することで、検索レイテンシの削減、書き込みの高速化、そして検索拡張生成などの動的AI技術の生産性向上が実現します。AWSは、NVIDIA GPUを活用したサーバーレスベクトルインデックス作成を提供する初の主要クラウドプロバイダーです。

本番環境対応のAIエージェントには、パフォーマンスの可視性、最適化、そしてスケーラブルなインフラストラクチャが必要です。エージェント開発とオーケストレーションのためのStrands Agents、ディーププロファイリングとパフォーマンスチューニングのためのNVIDIA NeMo Agent Toolkit、そして安全でスケーラブルなエージェントインフラストラクチャのためのAmazon Bedrock AgentCoreを組み合わせることで、組織はプロトタイプから本番環境まで、開発者に包括的で予測可能なパスを提供できます。

この拡張サポートは、AWS と NVIDIA テクノロジー(NVIDIA NIM マイクロサービスや NVIDIA Riva、NVIDIA BioNeMo などのフレームワーク、Amazon SageMaker および Amazon Bedrock と統合されたモデル開発ツールなど)との既存の統合を基盤としており、組織はエージェント AI、音声 AI、科学アプリケーションをこれまで以上に迅速に導入できます。

AWS による物理 AI の加速

物理 AI の開発には、ロボットモデルのトレーニングに使用する高品質で多様なデータセットに加え、実環境への導入前にシミュレーションでテストと検証を行うためのフレームワークが必要です。

NVIDIA Cosmos ワールド ファンデーション モデル (WFM) が Amazon EKS 上の NVIDIA NIM マイクロサービスとして利用可能になり、シームレスな信頼性とクラウドネイティブな効率性を備えたリアルタイムのロボット制御およびシミュレーション ワークロードを実現します。バッチベースのタスクや大規模な合成データ生成などのオフラインワークロード向けには、Cosmos WFM をコンテナとして AWS Batch 上でも利用できます。

Cosmos で生成された世界状態は、NVIDIA Isaac Sim や Isaac Lab などのオープンソースのシミュレーションおよび学習フレームワークを使用して、ロボットのトレーニングと検証に使用できます。

Agility Robotics、Agile Robots、ANYbotics、Diligent Robotics、Dyna Robotics、Field AI、Haply Robotics、Lightwheel、RIVR、Skild AI といった大手ロボティクス企業が、AWS と連携した NVIDIA Isaac プラットフォームを活用し、ロボット生成データの収集、保存、処理から、ロボット開発のスケールアップのためのトレーニングやシミュレーションまで、幅広いユースケースに活用しています。

継続的なコラボレーション

長年にわたる継続的なコラボレーションの成果として、NVIDIA は AWS Global GenAI Infrastructure and Data Partner of the Year を受賞しました。この賞は、ベクトル埋め込み、データの保存と管理、または複数の種類と形式での合成データ生成をサポートする、Generative AI コンピテンシーを持つトップテクノロジーパートナーに贈られるものです。

NVIDIA と AWS のコラボレーションについてさらに詳しく知り、12 月 5 日(金)までラスベガスで開催される AWS re:Invent のセッションにご参加ください。

カテゴリー: クラウド | データセンター | ジェネレーティブAI | ハードウェア | ネットワーキング | ロボティクス | ソフトウェア
タグ: Cosmos | イベント | Isaac | Nemotron | NVIDIA Blackwell | NVIDIA NIM | NVIDIA Spectrum-X | NVLink | オープンソース | フィジカルAI | Riva

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH