AIは、企業がインテリジェント・アプリケーションを構築、導入、拡張する方法を変革しています。スピード、スケーラビリティ、そしてセキュリティを備えたエンタープライズグレードのAIアプリケーションへの需要が急増する中、業界はデータ処理を効率化し、ビジネスのあらゆるレイヤーでインテリジェンスを提供できるプラットフォームへと急速に移行しています。
オラクルは本日、Oracle AI Worldにおいて、高性能AI推論およびトレーニング・ワークロード向けに設計された、NVIDIA GPUで高速化された新しいOCI Zettascale10コンピューティング・クラスターを発表しました。このクラスターは、最大16ゼタフロップスのピークAIコンピューティング性能を提供し、AI専用に設計された初のイーサネット・プラットフォームであるNVIDIA Spectrum-X Ethernetを活用することで、ハイパースケーラーは数百万台のGPUをかつてない効率とスケールで相互接続できるようになります。
その他の発表としては、Oracle Database 26aiにおけるNVIDIA NIMマイクロサービスのサポート追加、新しいOracle AI Data PlatformにおけるNVIDIAアクセラレーテッド・コンピューティングの統合、OCI ConsoleにおけるNVIDIA AI Enterpriseソフトウェア・プラットフォームのネイティブ提供などが挙げられます。
「AI市場は、オラクルとNVIDIAのような重要なパートナーシップによって定義されてきたと考えています」と、Oracle Cloud Infrastructure担当エグゼクティブ・バイスプレジデントのマヘシュ・ティアガラジャン氏は述べています。「これらのパートナーシップは、急速に進化するこの分野におけるお客様の成功を確実にする力強い力となります。OCI Zettascale10は、NVIDIAの次世代GPUプラットフォームを活用し、最も困難なAIワークロードに対応するマルチギガワットの容量を提供します。さらに、OCI上でNVIDIA AI Enterpriseがネイティブに利用できることで、両社のお客様はOCIの200を超えるクラウドサービスに容易にアクセスできる最先端のAIツールセットを利用でき、お客様のイノベーションを長期にわたってサポートできます。」
NVIDIAのハイパースケールおよびハイパフォーマンスコンピューティング担当バイスプレジデントであるイアン・バック氏は、「今回の最新のコラボレーションを通じて、オラクルとNVIDIAは最先端のアクセラレーテッド・コンピューティングの新たな境地を切り開きます。データベースAIパイプラインの合理化、データ処理の高速化、エンタープライズユースケースの強化、そしてOCI上での推論の導入と拡張の容易化を実現します。」と述べています。
AIデータベース・ワークロードの高速化
オラクルの主力データベースであるOracle Database 26aiに、大容量AIベクター・ワークロードを高速化するための重要な機能が追加されました。
Oracle Database 26aiのアプリケーション・プログラミング・インタフェースは、NVIDIA NeMo Retrieverとの統合をサポートするようになりました。これにより、開発者はNVIDIA NIMマイクロサービスを使用して、ベクター埋め込みモデルを容易に実行したり、検索拡張生成(RAG)パイプラインを実装したりできるようになります。
NVIDIAは、RAGパイプラインのあらゆる段階に対応する包括的なNIMマイクロサービススイートを提供しています。大規模なマルチモーダルデータを取り込むためのNeMo Retriever抽出モデル、データチャンクをベクター埋め込みに変換するNeMo Retriever埋め込みモデル、最終レスポンスの全体的な精度を向上させるNeMo Retriever再ランキングモデル、そしてコンテキストに応じて正確な最終レスポンスを生成する大規模言語モデル(LLM)です。
Oracle Private AI Services Containerは、クラウド環境やオンプレミス環境など、必要な場所にAIサービスを容易に導入できる新しいサービスです。 CPUリソースでの実行をサポートするOracle初の実装は、NVIDIA cuVSオープンソース・ライブラリを用いたベクター埋め込みとインデックス生成において、将来的にNVIDIA GPUの利用をサポートするように設計されています。
埋め込み生成とベクター検索インデックス作成は、ベクターデータベースに必要な2つの重要なタスクです。データ量が増加し、AIアプリケーションが成熟するにつれて、ベクターインデックス作成の構築時間がボトルネックとなることがますます増えています。
GPUは、近似最近傍探索アルゴリズムの構築において非常に効率的です。インデックス構築を高速化したいユーザーは、まもなく計画されているOracle Private AI Services Containerの機能を使用して、この計算負荷の高いタスクをNVIDIA GPUにオフロードできるようになります。インデックスが構築されると、Oracle AI Database 26aiで検索できるようにフォーマットできます。
Oracle AI Data PlatformとApache Spark向けNVIDIA RAPIDS Accelerator
NVIDIAアクセラレーテッド・コンピューティングは、新しいOracle AI Data Platformにも統合されており、エンタープライズ・データ、AIモデル、開発者ツール、そしてプライバシーとガバナンスの厳格な管理を統合する包括的なエコシステムを提供します。
Oracle AI Data Platform には、高性能ワークロードを強化する NVIDIA GPU オプションが組み込まれています。また、新しい NVIDIA RAPIDS Accelerator for Apache Spark プラグインも搭載されており、GPU アクセラレーションにより、分析、抽出、変換、ロード、機械学習パイプラインの高速化を実現します。
RAPIDS Accelerator for Apache Spark プラグインは、NVIDIA cuDF ライブラリのパワーと Spark 分散コンピューティング・フレームワークのスケールを組み合わせることで、GPU を活用した処理を高速化します。これらはすべて、コードを変更することなく Apache Spark アプリケーションの GPU アクセラレーションを可能にするように設計されています。
NVIDIA Nemotron と NeMo によるエンタープライズ AI アプリケーションの強化
Oracle Media and Entertainment は、Nemotron ビジョン言語モデル(VLM)と NVIDIA NeMo Curator ライブラリを使用して、ビデオ理解を強化しています。
このパイプラインは、ビデオのデコード、クリップのセグメンテーション、トランスコーディングなどの前処理手順を自動化することで、Oracle のビデオ中心の AI ワークフローを高速化します。動画と関連テキストの両方に対して、高品質でスケーラブルなフィルタリング、重複排除、アノテーション、分類、品質管理を可能にします。この機能により、Oracleは高密度の動画キャプションを生成し、下流モデルのトレーニングに必要な画像をキュレーションすることで、効率性と信頼性を向上させることができます。
高精度なドキュメント理解を実現するよう設計された、トランスフォーマーベースのビジョン・エンコーダー・デコーダー・モデルであるNVIDIA NeMo Retriever Parseは、複雑なドキュメントから意味のある情報をより容易に抽出できるようにすることで、Oracle Fusion Document Intelligenceを強化します。このモデルは単純なテキストスキャンにとどまらず、企業ドキュメントの汎用性、多様性、変動性に対応し、ドキュメント構造を維持しながら重要なメタデータを抽出できます。これらの機能は、エージェント型またはマルチモーダルなRAGアプリケーションの構築に利用できます。
これらの機能をすべて統合することで、Oracle AI Hubは、カスタムAIソリューションの構築、導入、管理のための単一のアクセスポイントを企業に提供します。
ユーザーはOracle AI Hubを通じてNVIDIA NIMマイクロサービスを導入でき、NVIDIA Nemotron LLM、VLMなどのモデルを、シンプルでコード不要のエクスペリエンスで導入できます。初期リリースでは、厳選されたホスト型NIMマイクロサービス群と、次世代の合理化された推論機能への早期アクセスを提供しています。単一のコンテナから幅広いLLMを実行できるように設計されたNIMマイクロサービスの統合により、お客様は様々なビジネスアプリケーション向けのモデルを迅速に導入できます。
OCI上のNVIDIA AI Enterprise
企業は、OCIにネイティブに統合されたNVIDIA AI Enterpriseを活用することで、NVIDIAのクラウドネイティブなソフトウェアツール、ライブラリ、フレームワークスイートに簡単にアクセスできるようになりました。この統合により、AIソリューションの開発、導入、管理が効率化され、Oracleプラットフォーム全体にわたる堅牢なエンタープライズサポートが提供されます。
NVIDIA AI EnterpriseはOCIコンソールエクスペリエンス内でネイティブに利用できるようになり、ユーザーはサポートされているGPUインスタンスをプロビジョニングする際に直接有効化できます。この機能は、パブリックリージョン、ソブリンクラウド、専用リージョンを含むOCIの分散クラウド全体で利用可能であり、お客様がセキュリティとコンプライアンスの要件を満たすのに役立ちます。
この新しいサービスにより、お客様はOracle Cloud Marketplaceを通じて個別に注文することなく、AIツールのフルスイートにアクセスできます。柔軟な価格設定、エンタープライズサポート、専門家によるガイダンス、優先セキュリティアップデートなど、AIアプリケーションを大規模に構築するための効率的なプロセスが提供されます。
NVIDIAはOracle AI Worldにおいて2025 Oracle Partner Awardを受賞し、Oracleとの協業を通じて企業のAI環境を変革し、OCIエコシステム全体のイノベーションを推進していることが評価されました。
詳細については、Oracleのプレスリリースをご覧ください。
カテゴリ:クラウド|データセンター
タグ:人工知能|NVIDIA AI Enterprise|NVIDIA NeMo|NVIDIA NIM
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。