コンテンツ制作のための生成AIワークフローを実行・構築するためのオープンソースのノードベースグラフィカルインターフェースであるComfyUIは、先月、NVIDIA RTX GPUのパフォーマンスを最大40%向上させるとともに、Wan 2.2、Qwen-Image、FLUX.1 Krea [dev]、Hunyuan3D 2.1といった新しいAIモデルのサポートを含むメジャーアップデートを公開しました。
NVIDIAはまた、Stable Diffusion 3.5やFLUX.1 Kontextといった人気の拡散モデルのNVIDIA TensorRT最適化バージョンをNVIDIA NIMマイクロサービスとしてリリースしました。これにより、ユーザーはComfyUIでこれらのモデルを最大3倍高速に、VRAM使用量を50%削減して実行できます。
さらに、モッダーがクラシックゲームのリマスターを可能にするプラットフォームであるNVIDIA RTX Remixのアップデートが本日リリースされ、驚異的なビジュアルでクラシックタイトルに新たな息吹を吹き込む高度なパストレーシングパーティクルシステムが追加されました。
ComfyUI v3.57 は RTX によりパフォーマンスが向上
NVIDIA は ComfyUI と連携し、AI モデルのパフォーマンスを最大 40% 向上させました。GPU 世代のアップグレードでは通常、パフォーマンスは 20~30% しか向上しません。
GeForce RTX 5090 と Intel Core i9 14900K で測定。すべてのモデルは、1024×1024 解像度で 20 段階のレンダリングを使用して ComfyUI 上で実行されました。
アプリにおける拡散モデルのパフォーマンスと効率の最適化に関心のある開発者は、開発者フォーラムで NVIDIA がこれらのワークロードをどのように高速化しているかについて詳細をご覧ください。
RTX で高速化された最先端の AI モデル
ここ数週間で、AI コンテンツ作成のための優れたモデルが次々とリリースされ、すべて ComfyUI で利用できるようになりました。
Wan 2.2 は、PC でのビデオ生成において驚異的な品質と制御性を提供する新しいビデオモデルです。これは、テキストから画像、テキストから動画、画像から動画、音声から動画など、豊富なAIモデルを提供するクリエイティブAIプラットフォーム、Wan AIの最新モデルです。GeForce RTXとNVIDIA RTX PRO GPUは、ComfyUIでWan 2.2 14Bモデルを大きな出力遅延なしで実行できる唯一のGPUです。「ロボットが卵を割ろうとしているが、誤ってボウルの外に落としてしまう」という単一のプロンプトで作成された以下の例をご覧ください。
Qwen-Imageは、Alibabaの新しい画像生成基盤モデルであり、複雑なテキストレンダリングと高精度な画像編集において飛躍的な進歩を遂げています。複雑なテキストのレンダリング、精緻な編集処理、そして生成された画像における意味的および視覚的な正確性の維持に優れています。このモデルは、GeForce RTX 5090上でApple M3 Ultraと比較して7倍高速に動作します。
Qwen-Imageは、画像生成だけでなく、様々な言語でのテキスト生成にも優れています。
Black Forest Labs の新しい FLUX.1 Krea [dev] AI モデルは、Krea 1 のオープンウェイト版であり、強力なパフォーマンスを提供し、過飽和なテクスチャを含まない、よりリアルで多様な画像を生成するようにトレーニングされています。Black Forest Labs はこのモデルを「オピニオンエイテッド(opinionated)」と呼んでおり、多様で視覚的に興味深い画像を幅広く提供します。このモデルは、GeForce RTX 5090 では Apple M3 Ultra と比較して 8 倍高速に動作します。
Black Forest Labs の新しい FLUX.1 Krea [dev] モデルは、よりリアルで多様な画像を提供します。
Hunyuan3D 2.1 は、入力画像やテキストを物理ベースレンダリングマテリアルで強化された高忠実度 3D アセットに変換する、完全にオープンソースですぐに使用できる 3D 生成システムです。コアコンポーネントには、形状生成用の 33 億パラメータモデルと、よりリアルなマテリアルを迅速に生成するためのテクスチャ分析用の 20 億パラメータモデルが含まれます。これらはすべて Blackwell RTX GPU でより高速に動作します。
Hunyuan3D 2.1 を使えば、画像から3Dモデルを素早く作成できます。
高度なビジュアル生成技術を今すぐ始めましょう
ビジュアル生成AIは強力なツールですが、技術に精通した専門家でさえ使い始めるのは難しい場合があり、より高度な技術を習得するには通常数か月かかります。
ComfyUI は、キャラクターを複数の生成を通して一定に保つ、画像の照明を調整する、微調整を読み込むなど、特定のタスクを実現するテンプレートやプリセットノードを提供することで、高度なワークフローを簡単に開始できるようにします。これにより、技術に詳しくないアーティストでも高度な AI ワークフローを簡単に使用できます。
生成AI を使い始めるための10の重要なテクニックをご紹介します。
開始フレームと終了フレームを定義してビデオ生成をガイド:開始フレームと終了フレーム、そしてビデオクリップの開始と終了方法をアップロードします。Hunyuan 2.2 は、スムーズなアニメーショントランジションを生成し、中間フレームを埋めることで一貫性のあるアニメーションを作成します。アニメーション、シーンシフト、ポーズの定義などに最適です。
自然言語で画像を編集:FLUX.1 [dev] KONTEXT を使用して、画像内の特定のテキストセクションを編集します。
画像または動画のアップスケール:低解像度で画像または動画を撮影し、リアルで高周波のディテールを追加することで、解像度とディテールの品質を向上させます。
領域構成の制御:画像の特定の領域内の視覚要素の配置とレイアウトを制御することで、画像生成をより細かく制御できます。
画像のスタイル変更:FLUX Redux を使用して、コアとなる視覚要素とディテールを維持しながら、さまざまなバリエーションの画像を作成します。
タップ画像からマルチビューへ、3D モデルへ:オブジェクトのさまざまな角度から撮影した複数の画像を使用して、高忠実度のテクスチャ付き 3D モデルを作成します。
サウンドを動画に変換:音声、音楽、環境音などのオーディオ入力から直接、動画クリップやアニメーションを作成します。
動画の軌跡の制御:動画内のオブジェクト、カメラ、またはシーンの動きを自動的に誘導します。
インペインティングによる画像編集:デジタル画像の欠落部分や不要な部分を、周囲の領域と視覚的にシームレスで文脈的に一貫性のある方法で埋めたり修正したりできます。
アウトペインティングでキャンバスを拡張:新しい画像コンテンツを生成して、既存の画像や動画の境界を拡張したり、切り取った部分にディテールを追加したり、シーンを完成させたりできます。
クリエイティブテンプレートとワークフローの最新情報については、X で ComfyUI をフォローしてください。
ComfyUI ゾーンを拡張しましょう
ComfyUI プラグインを使用すると、ユーザーは既存のアプリケーションに生成 AI ワークフローを追加できます。ComfyUI コミュニティは、いくつかの人気クリエイティブアプリケーション向けのプラグインの開発を開始しています。
Adobe Photoshop プラグインは、Photoshop のネイティブ Firefly モデルを補完し、ユーザーが独自のフローを実行し、特定のタスクに特化したモデルを選択できるようにします。また、ローカル推論により、低レイテンシで無制限の生成塗りつぶしが可能になります。
3D ガイド付き生成 AI 向け NVIDIA AI Blueprint に搭載されている Blender プラグインを使用すると、2D ワークフローと 3D ワークフローを接続できます。アーティストは3Dシーンを使用して画像生成を制御したり、ComfyUIでテクスチャを作成して別の3Dアセットに適用したりできます。
Foundry Nukeプラグイン(Blenderに類似)は、2Dワークフローと3Dワークフローの連携を可能にするため、ユーザーはAlt+Tabキーを押してアプリケーションを切り替える必要がなくなります。
Unreal Engineプラグインを使用すると、Unreal Engineユーザーインターフェース内で直接ComfyUIノードを操作でき、生成拡散モデルを使用してシーンのテクスチャを迅速に作成・調整できます。以下の例をご覧ください。
ComfyUIでNVIDIA RTX GPU向けにハイパー最適化されたモデルを実行
NVIDIA RTX GPUを使用する最適な方法は、TensorRTライブラリを使用することです。これは、NVIDIA RTX GPUのTensorコアから最大限の速度を引き出すように設計された高性能ディープラーニング推論エンジンです。
NVIDIAは、Black Forest LabsのモデルやStability AIのモデルなど、トップクラスのAIラボと提携し、それぞれのモデルにTensorRTを統合しています。これらのモデルは量子化バージョンも利用可能です。量子化バージョンはネットワークの圧縮バージョンで、VRAM使用量を50~70%削減し、同等の品質を維持しながら推論速度を最大2倍に高速化します。
TensorRT最適化モデルは、TensorRTノードを介してComfyUIで直接実行できます。TensorRTノードは現在、SDXL、SD3、SD3.5、およびFLUX.1-devとFLUX.1-schnellモデルをサポートしています。このノードはAIモデルをTensorRT最適化モデルに変換し、ユーザーのGPU向けにTensorRT最適化エンジン(特定のハードウェアに最適な効率でモデルを実行するためのマップ)を生成することで、大幅な高速化を実現します。
ただし、モデルの量子化には少し手間がかかります。量子化モデルとTensorRT最適化モデルの両方を実行したいユーザー向けに、NVIDIAはNIMマイクロサービスと呼ばれるシンプルなコンテナに事前構成済みのファイルを提供しています。ユーザーはComfyUIのNIMノードを使用してこれらのコンテナを読み込み、FLUX.1-dev、FLUX.1-schnell、FLUX.1 Kontext、SD3.5 Large、Microsoft TRELLISなどのモデルの量子化バージョンを使用できます。
Remixアップデートでパストレーシングパーティクルシステムを追加
本日、NVIDIAアプリを通じてRTX Remixの新しいアップデートがリリースされました。高度なパーティクルシステムが追加され、モッダーは従来の炎や煙のエフェクトだけでなく、ビデオゲーム「Portal」のような幻想的なエフェクトも強化できます。
RTX Remixを使用すると、クラシックゲームのレガシーパーティクルをパストレーシングとして解釈できるため、リアルな光を投影して多くのシーンの外観を向上させることができます。しかし、これらのパーティクルは20年以上も前のものであり、ディテール、鮮やかさ、滑らかなアニメーションが欠けていました。
RTX Remixの新しいパーティクルは物理的に正確な特性を持ち、ゲームのライティングやその他のエフェクトと相互作用することができます。これにより、パーティクルは衝突し、風などの力に応じて正確に移動し、表面に反射し、影を落とし、独自の影を割り当てることが可能になります。
新しいパーティクル システムの詳細については、GeForce の記事をご覧ください。
毎週、RTX AI Garage ブログ シリーズでは、NVIDIA NIM マイクロサービスと AI ブループリント、AI エージェント、クリエイティブ ワークフロー、生産性向上アプリなど、AI PC やワークステーションでの構築について詳しく知りたい方向けに、コミュニティ主導の AI イノベーションとコンテンツを特集しています。
Facebook、Instagram、TikTok、X で NVIDIA AI PC をフォローしてください。また、RTX AI PC ニュースレターに登録して最新情報を入手してください。NVIDIA の Discord サーバーに参加して、コミュニティ デベロッパーや AI 愛好家とつながり、RTX AI の可能性について議論しましょう。
LinkedIn と X で NVIDIA Workstation をフォローしてください。
ソフトウェア製品情報に関するお知らせをご覧ください。
カテゴリ: ジェネレーティブ AI
タグ: アート | 人工知能 | クリエイター | GeForce | グラフィックス | NVIDIA RTX | レンダリング | RTX AI Garage
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。