2025年12月15日、NVIDIA(エヌビディア)は「NVIDIA Nemotron 3」ファミリー(Nano/Super/Ultra)をオープンモデルとして発表した。注目点は、重み(weights)を公開したモデル単体ではなく、学習データセット、強化学習(RL:試行錯誤で報酬を最大化する学習法)の環境とライブラリ、さらに再現手順(レシピ)までをひとまとまりの“開発部品群”として提示した点にある。
従来の「モデルが公開された=使える」ではなく、「学習に必要な材料(データ)と、作り方(レシピ)、動かすための道具(環境)までセットで渡す」方向へ重心が移った。
この考え方は、2025年3月18日のGTCで公表されたヒューマノイド向け「NVIDIA Isaac GR00T N1」とも連動する。同社はGR00T N1を「オープンでフルにカスタマイズ可能な基盤モデル」と位置づけ、シミュレーションと合成データ生成の枠組みも同時に打ち出した。言語モデルだけでなく、物理世界で動くロボットの学習にまで、オープン化の範囲を拡張する姿勢が2025年を通じて示された。
オープン化の単位が「モデル」から「開発スタック」へ

エヌビディアはNemotron 3を、モデル(重み)だけでなく、データ・学習/評価環境・運用手順まで含む「学習パイプライン」として説明した。ここで重要なのは、公開する“量”よりも「同じ条件で再現できるか」という点である。
料理に例えるなら、完成品(モデル)だけを配るのではなく、材料(データ)とレシピ(手順)、調理器具(学習環境)まで含めて渡し、「他社でも同じ味を再現し、好みに合わせて味付けも変えられる」形に寄せたと言える。
この「工程を含むオープン化」は、エージェント型AIの要求条件と整合する。エージェント型AIは、単発の回答よりも、検索やツール呼び出し、複数ステップの計画実行など“手順の遂行”が成果に直結する。そのため、学習後工程(ポストトレーニング)で使う環境や評価の仕組みが重要になる。Nemotron 3がRL環境・ライブラリまで含めて提示したのは、実装に必要な「周辺部品」をあらかじめ揃える狙いとみられる。
Nemotron 3 Nanoが狙う入力の長さと高スループットの両立

Nemotron 3のうち先行して提供されたNanoは、マルチエージェント用途での推論効率を強く意識した設計として示された。エヌビディアは、Nemotron 3 NanoがNemotron 2 Nano比でスループット(一定時間に生成できるトークン量)を4倍に高めたと説明し、その理由として混合専門家(MoE)を含む構造を挙げた。
スループットは「1秒あたりにどれだけ文章(トークン)を作れるか」に近い指標であり、同じ仕事をより短時間で処理できるかを示す。エージェント型AIでは、段取りや試行回数が増えやすく、推論効率が効いてくる。
もう一つの特徴が、最大100万トークンの文脈長である。文脈長は「一度に参照できる入力の長さ」であり、長い資料や会話の履歴を“途中で忘れず”に扱える可能性が高まる。長文の仕様書を読みながら矛盾チェックをする、複数文書をまたいで要点を突き合わせる、といった使い方ができる。
また、ハードウェアとの結び付きも明示された。技術ブログはNemotron 3 Nanoを「総パラメータ約300億、同時にアクティブになるのは最大約30億」とし、DGX Spark、H100、B200 GPUでの利用を想定したと記した。さらにcookbook(運用手順集)を同時に用意する流れは、「性能が出る構成」を実装例として固定し、導入の迷いを減らす効果がある。
一方で、導入側は「その手順と依存関係(ライブラリや推論エンジン)をどう保守するか」という運用課題も抱えることになる。
GR00T N1と「合成データの量産」

エヌビディアは2025年3月18日、ヒューマノイド向け基盤モデルGR00T N1を「オープンでフルにカスタマイズ可能な基盤モデル」と位置づけて発表し、ロボット開発を加速するシミュレーション枠組みも同時に示した。GR00T N1は二つの“システム”からなるデュアル構造を採り、System 2が視覚言語モデル(VLM)として状況を理解し行動計画を立て、System 1がそれをロボット動作へ落とし込むと説明された。
ロボット学習で壁になりやすいのはデータである。現実のロボットでデータを集めるには、時間も費用も安全面の配慮も必要になる。そこで同社は、Omniverseなどのシミュレーション基盤で“合成データ”を大量生産し、学習に回す設計を前面に打ち出した。
発表によれば、GR00T Blueprint(合成データ生成の設計図)により、合成軌跡78万本を11時間で生成し、合成データと実データを組み合わせることで、実データのみの場合に比べ性能を40%改善したという。
さらには、Google DeepMindおよびDisney Researchと協業し、ロボット学習向けのオープンソース物理エンジン「Newton」を開発するとした。モデル公開に加え、物理シミュレーションという“学習環境”の標準化を押し出す点は、半導体・ソフトウェア・ロボティクスを同一の開発パイプラインでつなぐ方向性を示している。
オープンモデル拡大が浮かび上がらせる運用課題

オープン化が進むほど、導入側では「選ぶ」「改変する」「更新する」工程が増え、運用責任は重くなる。McKinsey & Companyは2025年4月の調査で、データ・モデル・ツールの各領域で「50%超がオープンソースAI技術を利用している」と報じ、今後増やす意向も強いとした。
一方で、サイバーセキュリティや規制順守などが懸念として挙げられている。
Nemotron 3のように、重みだけでなくデータやレシピ、RL環境まで“部品群”として公開されると、導入はしやすくなる反面、管理対象が増える。具体的には、次のような論点が前面に出る。
- どのデータと手順で学習したかを追えるか(監査性)
- ライブラリの更新や脆弱性対応を継続できるか(保守性)
- ライセンス条件や再配布条件を正しく守れるか(コンプライアンス)
半導体の面では、GPU調達が「計算資源の購入」から「開発スタックの選択」に近づく。すなわち、GPUの性能だけでなく、推論エンジン、ライブラリ、手順がまとまって提供されることが採用判断の比重を高める。オープンモデルの拡大は、性能競争と同時に、「実装・運用まで含む供給の形」をめぐる競争を強めている。
オープン化は「公開」から「実装可能な開発スタック」へ

2025年3月のGR00T N1と、同年12月のNemotron 3は、オープン化の範囲がモデルから、データ生成・学習環境・運用手順へ拡張していることを示した。Nemotron 3は、Nemotron 2 Nano比で4倍のスループット、100万トークン文脈、MoEなどを掲げ、エージェント運用を前提に「モデル+データ+RL環境+レシピ」をまとめて提示した。GR00T N1は、合成軌跡78万本を11時間で生成し性能を40%改善したという具体値で、物理AIにおける“データ生成と学習環境”の重要性を可視化した。
オープン技術の採用が進むほど、運用の負荷(セキュリティ、コンプライアンス、保守)は増える。オープンモデルの拡大は、半導体の性能競争を前提にしつつも、データとソフトウェアを含む「実装可能な開発スタック」をどう整えるかという競争へ、論点を移している。
参考リンク
- NVIDIA Debuts Nemotron 3 Family of Open Models
- Inside NVIDIA Nemotron 3 | NVIDIA Technical Blog
- NVIDIA Announces Isaac GR00T N1
- Open source technology in the age of AI | McKinsey
- Open source in the age of AI | McKinsey
この記事に関連するおすすめ求人特集:
※最新の採用状況により、リンク先の求人が更新されている場合があります。