本日リリースされた OpenAI の新しい 2 つのオープンウェイト AI 推論モデルは、あらゆる業界、あらゆる規模の開発者、愛好家、企業、スタートアップ企業、そして政府機関に、最先端の AI 開発を直接提供します。
NVIDIA と OpenAI のコラボレーションによるこれらのオープンモデル (gpt-oss-120b および gpt-oss-20b) は、コミュニティ主導のイノベーションの力を証明するものであり、AI を世界中で利用できるようにするという NVIDIA の基盤的な役割を強調するものです。
誰もがこれらのモデルを使用して、生成 AI、推論 AI、物理 AI、ヘルスケア、製造業における画期的なアプリケーションを開発できるだけでなく、AI が推進する次世代の産業革命が進むにつれて、新たな産業を切り開くことも可能です。
OpenAI の新しい柔軟なオープンウェイトテキスト推論大規模言語モデル (LLM) は、NVIDIA H100 GPU でトレーニングされ、世界中で NVIDIA CUDA プラットフォームで稼働している数億台の GPU で最高の推論性能を発揮します。
これらのモデルはNVIDIA NIMマイクロサービスとして提供され、柔軟性、データプライバシー、エンタープライズグレードのセキュリティを備え、あらゆるGPUアクセラレーションインフラストラクチャに容易に導入できます。
NVIDIA Blackwellプラットフォーム向けにソフトウェアが最適化されているため、これらのモデルはNVIDIA GB200 NVL72システム上で最適な推論性能を提供し、毎秒150万トークンを達成することで、推論の効率を大幅に向上させます。
NVIDIAの創設者兼CEOであるジェンスン・フアン氏は、「OpenAIはNVIDIA AIで何が構築できるかを世界に示した。そして今、彼らはオープンソースソフトウェアにおけるイノベーションを推進している」と述べています。「gpt-ossモデルにより、世界中の開発者が最先端のオープンソース基盤を基盤として開発を進めることができ、世界最大のAIコンピューティングインフラストラクチャ上で、AIにおける米国の技術リーダーシップを強化することができます。」
NVIDIA Blackwellが高度な推論を実現
gpt-ossのような高度な推論モデルが指数関数的に多くのトークンを生成するにつれて、コンピューティングインフラストラクチャへの需要は劇的に増加します。この需要に応えるには、最高レベルの推論実行に必要なスケール、効率性、そして投資収益率を実現するように設計されたアーキテクチャ、NVIDIA Blackwell を搭載した専用の AI ファクトリーが必要です。
NVIDIA Blackwell には、超高効率で高精度な推論を実現する NVFP4 4 ビット精度などの革新的な技術が搭載されており、消費電力とメモリ要件を大幅に削減します。これにより、兆パラメータの LLM をリアルタイムで導入することが可能になり、組織に数十億ドル規模の価値をもたらす可能性があります。
世界中の数百万の AI 開発者のためのオープン開発
NVIDIA CUDA は、世界で最も広く利用可能なコンピューティング インフラストラクチャであり、ユーザーは、強力な NVIDIA DGX Cloud プラットフォームから、NVIDIA GeForce RTX および NVIDIA RTX PRO 搭載の PC やワークステーションまで、あらゆる場所で AI モデルを導入・実行できます。
NVIDIA CUDA のダウンロード数はこれまでに 4 億 5,000 万回を超えており、本日より、大規模な CUDA 開発者コミュニティは、既に使用している NVIDIA テクノロジー スタック上で実行できるように最適化されたこれらの最新モデルにアクセスできるようになります。
OpenAI と NVIDIA は、ソフトウェアのオープンソース化へのコミットメントを示すため、主要なオープンフレームワークプロバイダーと連携し、FlashInfer、Hugging Face、llama.cpp、Ollama、vLLM に加え、NVIDIA Tensor-RT LLM などのライブラリ向けのモデル最適化を提供してきました。これにより、開発者は好みのフレームワークで開発を行うことができます。
オープンソースを基盤としたコラボレーションの歴史
本日のモデルリリースは、NVIDIA のフルスタックアプローチが、世界で最も野心的な AI プロジェクトを可能な限り幅広いユーザーベースに届けることにどのように貢献しているかを強調しています。
これは、NVIDIA と OpenAI のコラボレーションの初期にまで遡る物語です。2016 年、Huang が最初の NVIDIA DGX-1 AI スーパーコンピューターを OpenAI のサンフランシスコ本社に手渡した時が始まりました。
それ以来、両社は AI の可能性の限界を押し広げるために協力し、大規模なトレーニング実行に必要なコアテクノロジーと専門知識を提供してきました。
NVIDIA は、OpenAI の gpt-oss モデルを NVIDIA Blackwell および RTX GPU 向けに最適化し、NVIDIA の広範なソフトウェア スタックと組み合わせることで、900 種類以上の NVIDIA ソフトウェア開発キットと AI モデルを使用する 250 か国 650 万人の開発者に対し、より高速でコスト効率の高い AI の発展を実現しています。そして、その数は増え続けています。
NVIDIA テクニカル ブログと NVIDIA RTX AI Garage ブログ シリーズの最新記事で詳細をご覧ください。gpt-oss モデルを使った開発を始めましょう。
カテゴリ: データセンター | ジェネレーティブ AI
タグ: 人工知能 | CUDA | DGX Cloud | GeForce | GPU | ハードウェア | 推論 | NVIDIA DGX | NVIDIA Hopper アーキテクチャ | NVIDIA RTX | オープンソース | TensorRT
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。