AIが複雑化するにつれ、モデルビルダーはNVIDIAに頼るようになる

トレンドセッター
この記事を読むのにかかる時間: 3

OpenAIは本日、専門的な知識作業向けにこれまでで最も高性能なモデルシリーズと称するGPT-5.2を発表しました。このモデルは、NVIDIA HopperやGB200 NVL72システムを含むNVIDIAインフラストラクチャ上で学習・展開されました。

GPT-5.2は、GPQA-Diamond、AIME 2025、Tau2 Telecomといった業界ベンチマークで最高スコアを達成しました。ARC-AGI-2など、AGI開発に必要なスキルをターゲットとした主要ベンチマークにおいて、GPT-5.2は最先端のパフォーマンスの新たな基準を打ち立てました。

これは、主要なAI開発者がNVIDIAのフルスタックAIインフラストラクチャ上で大規模に学習・展開している最新の事例です。

事前学習:知性の基盤

AIモデルは、事前学習、事後学習、テスト時のスケーリングという3つのスケーリング則によって、より高性能になっています。

推論モデルは、複数のネットワークを連携させ、推論中にコンピューティングを適用して複雑なクエリに対処しますが、今やあらゆる場所で利用されています。

しかし、事前トレーニングと事後トレーニングは依然としてインテリジェンスの基盤であり、推論モデルをよりスマートで有用なものにするための中核を成しています。

そして、そこに到達するにはスケールが必要です。最先端のモデルをゼロからトレーニングするのは容易ではありません。

数万、数十万ものGPUが効果的に連携して動作する必要があります。

このレベルのスケールを実現するには、多くの側面で卓越性が求められます。ワールドクラスのアクセラレータ、スケールアップ、スケールアウト、そしてますますスケールアクロス化するアーキテクチャ全体にわたる高度なネットワーク、そして完全に最適化されたソフトウェアスタックが必要です。つまり、スケールパフォーマンスを実現するために構築された、専用のインフラストラクチャプラットフォームです。

NVIDIA Hopperアーキテクチャと比較して、NVIDIA GB200 NVL72システムは、最新のMLPerfトレーニング業界ベンチマークでテストされた最大規模のモデルにおいて、トレーニングパフォーマンスが3倍高速化し、コストパフォーマンスはほぼ2倍向上しました。

NVIDIA GB300 NVL72 は、NVIDIA Hopper と比較して 4 倍以上の高速化を実現します。

これらのパフォーマンス向上により、AI 開発者は開発サイクルを短縮し、新しいモデルをより迅速に展開できます。

あらゆるモダリティにおけるモデルの実証

現在主流の大規模言語モデルの大部分は、NVIDIA プラットフォームでトレーニングされています。

AI はテキストだけではありません。

NVIDIA は、音声、画像、動画生成、そして生物学やロボティクスといった新興分野を含む、複数のモダリティにわたる AI 開発をサポートしています。

例えば、Evo 2 のようなモデルは遺伝子配列をデコードし、OpenFold3 は 3D タンパク質構造を予測し、Boltz-2 は薬物相互作用をシミュレートすることで、研究者が有望な候補をより迅速に特定するのに役立ちます。

臨床面では、NVIDIA Clara 合成モデルはリアルな医用画像を生成し、患者データを公開することなくスクリーニングと診断を向上させます。

Runway や Inworld などの企業は、NVIDIA インフラストラクチャでトレーニングを行っています。

Runway は先週、Gen-4.5 を発表しました。これは、Artificial Analysis リーダーボードによると、現在世界でトップクラスのビデオモデルである、新境地のビデオ生成モデルです。

NVIDIA Blackwell 向けに最適化された Gen-4.5 は、初期の研究開発、事前トレーニング、事後トレーニング、推論に至るまで、すべて NVIDIA GPU 上で開発されました。

Runway はまた、NVIDIA Blackwell でトレーニングされた最先端の一般世界モデルである GWM-1 も発表しました。このモデルは、現実をリアルタイムでシミュレートするために構築されています。インタラクティブで制御可能、そして汎用性が高く、ビデオゲーム、教育、科学、エンターテインメント、ロボティクスなどの分野で活用されています。

ベンチマークがその理由を証明しています。

MLPerf は、トレーニング性能の業界標準ベンチマークです。最新のラウンドでは、NVIDIA は MLPerf Training 5.1 の 7 つのベンチマークすべてで結果を提出し、優れたパフォーマンスと汎用性を示しました。すべてのカテゴリーで提出した唯一のプラットフォームでした。

NVIDIA は多様な AI ワークロードをサポートできるため、データセンターのリソースをより効率的に活用できます。

Black Forest Labs、Cohere、Mistral、OpenAI、Reflection、Thinking Machines Lab などの AI ラボが、NVIDIA Blackwell プラットフォームでトレーニングを実施しているのはそのためです。

クラウドとデータセンターを横断する NVIDIA Blackwell

NVIDIA Blackwell は、主要なクラウドサービスプロバイダー、ネオクラウド、サーバーメーカーから広く提供されています。

さらに、コンピューティング、メモリ、アーキテクチャをさらに強化した NVIDIA Blackwell Ultra が、サーバーメーカーとクラウドサービスプロバイダーから提供開始されています。

Amazon Web Services、CoreWeave、Google Cloud、Lambda、Microsoft Azure、Nebius、Oracle Cloud Infrastructure、Together AI など、主要なクラウドサービスプロバイダーと NVIDIA クラウドパートナーは、すでに NVIDIA Blackwell を搭載したインスタンスを提供しており、事前トレーニングのスケーリングが進むにつれてスケーラブルなパフォーマンスを確保しています。

最先端のモデルから日常的な AI まで、未来は NVIDIA によって築かれています。

NVIDIA Blackwell プラットフォームの詳細はこちら。

カテゴリ: クラウド | 企業 | ディープラーニング

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH