かつては、巨大なスーパーコンピュータからポケットの中のチップへと、コンピューティングパワーが徐々に流れ落ちていくのが当たり前でした。
過去15年間で、イノベーションの方向性は大きく変わりました。ゲームから生まれ、アクセラレーテッドコンピューティングによってスケールアップされたGPUは、スーパーコンピューティングを刷新し、AI革命を科学計算の最も高度なシステムにまで持ち込むべく、急速に発展を遂げてきました。
ユーリッヒ研究センターのJUPITERは、この新しい時代の象徴です。
JUPITERは、ワットあたり63.3ギガフロップスという最高効率のスーパーコンピュータの一つであるだけでなく、AIの分野でも強力な存在であり、ISC High Performance 2025の92エクサフロップスから116エクサフロップスへと大幅に向上しています。
これが「反転」の真相です。2019年には、TOP100の高性能コンピューティングシステムの約70%がCPUのみで構成されていました。現在、その数は15%を下回り、TOP100システムのうち88システムがアクセラレーションされており、そのうち80%がNVIDIA GPUを搭載しています。
TOP500全体では、388システム(78%)がNVIDIAテクノロジを採用しています。これには、GPUアクセラレーションシステム218台(前年比34システム増)と、高性能NVIDIAネットワークで接続された362システムが含まれます。この傾向は明白で、アクセラレーションコンピューティングが標準となっています。
しかし、真の革命はAIパフォーマンスにあります。NVIDIA HopperやBlackwellといったアーキテクチャ、そしてJUPITERといったシステムにより、研究者はかつてないほど桁違いに多くのAIコンピューティングを利用できるようになりました。
AI FLOPSは新たな基準となり、気候モデリング、創薬、量子シミュレーションといった、規模と効率の両方が求められる課題におけるブレークスルーを可能にしています。
SC16 において、今日の生成型 AI の波が到来する何年も前に、NVIDIA の創業者兼 CEO であるジェンスン フアンは、未来の AI の到来を予見していました。彼は、AI が間もなく世界で最も強力なコンピューティング システムを一変させるだろうと予測していました。
「数年前、まるでトールのハンマーが空から降ってくるかのように、ディープラーニングが登場し、世界で最も困難な問題のいくつかを解決するための、信じられないほど強力なツールを与えてくれました」とフアンは断言しました。
SC16 で、フアンは AI が世界で最も強力な科学コンピューティング システムをどのように一変させるかについて説明しました。
コンピューティングの消費電力の背後にある数学的要因は、すでに GPU への移行を不可避なものにしていました。
しかし、これらの GPU 上に構築された NVIDIA CUDA-X コンピューティング プラットフォームによって引き起こされた AI 革命こそが、これらのマシンの能力を劇的に拡張したのです。
突如として、スーパーコンピュータは倍精度(FP64)だけでなく、混合精度(FP32、FP16)、さらにはINT8といった超高効率フォーマット(現代のAIの基盤)でも、有意義な科学研究を行えるようになりました。
この柔軟性により、研究者は電力バジェットをこれまで以上に活用し、より大規模で複雑なシミュレーションを実行したり、より深層ニューラルネットワークを学習したりできるようになりました。しかも、ワットあたりのパフォーマンスを最大化しながら。
しかし、AIが普及する以前から、数値データはすでに問題を突きつけていました。電力バジェットは妥協の余地がありません。NVIDIA社内およびコミュニティ全体のスーパーコンピュータ研究者は、未来への道筋を把握し始めており、その道筋はGPUによって開かれていました。
フーバーダム級の電気代を払うことなくエクサスケールに到達するには、研究者は加速を必要としていました。GPUはCPUよりもワットあたりの演算処理能力がはるかに高いのです。これはAI以前の未来を予感させるものであり、AIブームが到来した当時、大規模GPUシステムがすでに勢いを増していた理由でもあります。
その種は2012年、オークリッジ国立研究所でTitanが誕生したことで始まりました。Titanは、CPUとGPUを前例のない規模で組み合わせた米国の主要システムの一つであり、階層的並列処理がアプリケーションの大幅な性能向上を実現することを示しました。
2013年にはヨーロッパで、Piz Daintがパフォーマンスと効率性の両方において新たな基準を打ち立て、それが重要なポイント、つまり天気予報のためのCOSMO予測のような実際のアプリケーションで実証しました。
2017年までに、その転換は明白になりました。オークリッジ国立研究所のSummitとローレンス・リバモア研究所のSierraは、リーダークラスのシステムにおける新たな基準、すなわち加速ファーストの先駆けとなりました。これらは単に動作速度を向上させただけでなく、気候モデリング、ゲノミクス、材料科学など、科学が問うべき課題を根本から変革しました。
これらのシステムは、はるかに少ないリソースで、はるかに多くのことを実現できます。 Green500の最も効率的なシステムリストでは、上位8位までがNVIDIAアクセラレーションを採用しており、上位10位のうち7位はNVIDIA Quantum InfiniBandで接続されています。
しかし、これらの目玉となる数字の背後にあるのは、AIの性能がいかに基準となっているかということです。JUPITERは116 AIエクサフロップスと1 EF FP64を実現しており、これは科学がシミュレーションとAIを融合させている明確な兆候です。
電力効率の向上は、エクサスケールの実現を可能にしただけでなく、エクサスケールのAIを実用的にしました。そして、科学がAIを大規模に活用するようになると、その曲線は急上昇しました。
次に何を意味するのか
これは単なるベンチマークの話ではありません。真の科学:
より高速で高精度な気象・気候モデル
創薬とゲノミクスにおけるブレークスルー
核融合炉と量子システムのシミュレーション
あらゆる分野におけるAI主導研究の新たなフロンティア
電力効率向上の必要性から始まったこの変化は、アーキテクチャ上の優位性へと発展し、科学における超大国へと成熟しました。シミュレーションとAIをかつてない規模で融合させた技術です。
科学計算から始まりました。そして今、他のコンピューティングもそれに追随するでしょう。
カテゴリー:データセンター | 研究 | スーパーコンピューティング
タグ:CUDA-X | GPUアクセラレーション | Green500 | ネットワーキング | NVIDIA Blackwell | NVIDIA Hopper | NVIDIA Spectrum-X | NVLink | TOP500
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。