AIインフラサミット2025:SK hynixがAIを加速する革新的なAiMソリューションを展示

トレンドセッター
この記事を読むのにかかる時間: 3

SK hynixは、9月9日から11日までカリフォルニア州サンタクララで開催されたAIインフラサミット2025において、強化されたAiM1ベースのAIメモリソリューションを展示し、将来のAIサービスにおける同社の技術的リーダーシップを強調しました。

1 アクセラレータ・イン・メモリ(AiM):SK hynixのプロセッシング・イン・メモリ(PIM)半導体製品名。GDDR6-AiMも含まれます。

12 前へ 次へ

AIインフラサミット2025におけるSK hynixのブース

企業および研究分野のAI業界のグローバルリーダーがサミットに集結し、最新のハードウェアおよびソフトウェア・インフラストラクチャ技術を披露しました。以前はAIハードウェア&エッジAIサミットとして知られていたこのイベントは、「高速、効率的、そして手頃な価格のAIを実現」というスローガンの下、3,500人以上の参加者と100社以上のパートナー企業を集めました。
SK hynixはサミットで、PIM2ベースのAiMソリューションであるAiMX3の最新開発成果を発表しました。「AIを強化:AiMこそが、すべての人にとって必要なもの」をテーマにしたブースでは、NVIDIA H100 GPU 2基とAiMXカード4枚を搭載したSupermicroサーバーシステム(GPU SuperServer SYS-421GE-TNRT3)のライブデモンストレーションを実施しました。来場者は実環境下でのシステムパフォーマンスを目の当たりにし、AiMの技術力と競争力を実感することができました。

2Processing-In-Memory(PIM):演算機能をメモリに統合し、AIやビッグデータ処理におけるデータ移動のボトルネックを解決する次世代メモリ技術。3AiMベースアクセラレータ(AiMX):大規模言語モデル(LLM)(大規模なテキストデータセットでトレーニングされたChatGPTなどのAIシステム)に特化したGDDR6-AiMチップを搭載したSK hynixのアクセラレータカード。

AiMベースのソリューションのデモ

デモでは、LLM5推論におけるメモリウォール4のスケーリング方法についても説明しました。GPUのみのシステムでは、計算依存6とメモリ依存7の両方のプロセスが同時に処理されるため、ユーザーリクエストやコンテキスト長の増加に伴い、非効率性が生じる可能性があります。一方、AiMXベースの分離型推論システム8では、ワークロードを2つの異なるフェーズに分割します。メモリ依存フェーズはAiMXアクセラレータで実行され、計算依存フェーズはGPUで実行されます。このワークロード割り当てにより、システムはより多くのユーザーリクエストとより長い入力プロンプトを同時に処理できます。

4メモリウォール:メモリアクセス速度がデータプロセッサ速度に追いつかない場合に発生するボトルネック。5大規模言語モデル(LLM):大規模データセットで学習されたAIモデルで、自然言語処理タスクを理解・生成する。6コンピューティングバウンド:プロセッサの計算能力によって全体的な処理速度が制限されるワークロード。7メモリバウンド:メモリアクセス速度によって全体的な処理速度が制限されるワークロード。8分散型推論システム:異なる種類の処理ユニットに基づいて計算タスクを割り当てるアーキテクチャで、処理操作の二重構造を可能にする。

123前へ次へ

新しいAiMXカードは、最新のアーキテクチャとソフトウェアを搭載

SK hynixは、AiMXカードのソフトウェア強化も発表しました。AIサービス開発で広く使用されているvLLM9フレームワークを適用することで、機能が向上しただけでなく、複雑な推論プロセスを伴う推論モデル10においても、長いトークン生成を安定的にサポートできるようになりました。

9仮想大規模言語モデル(vLLM):効率的かつ最適化されたLLM推論のために設計されたAIフレームワーク。10推論モデル:単純な応答応答を超えた複雑な推論タスクを実行できる高度なAIモデル。

最新のアーキテクチャと強化されたソフトウェアを備えた新しいAiMベースのソリューションは、LLMサービス管理におけるコスト、パフォーマンス、消費電力の課題に対処すると同時に、GPUのみのシステムと比較して運用コストを削減します。

SK hynixのEuicheol Lim副社長が、PIMによるアテンションオフロード – GPUヘテロジニアスシステムについて講演

イベント2日目には、ソリューション先進技術部門の責任者であるEuicheol Lim副社長が登壇し、プレゼンテーションを行いました。「メモリ/ストレージ:LLMサービスのトークンコストの壁を打破:PIMによるアテンションオフロード – GPUヘテロジニアスシステム」と題したLim氏のセッションでは、LLMサービスにおけるトークン処理コストの削減方法を概説し、AIメモリ技術が業界のデジタルトランスフォーメーションに与える影響を強調しました。

11アテンションオフロード:LLM/Transformerモデルにおける技術。アテンション計算の一部を外部メモリデバイスに分散またはキャッシュすることで、GPUまたはメインメモリの負荷を軽減します。

AIインフラサミット2025では、ハードウェアからデータセンター、エッジAI産業に至るまで、AIインフラの現状が紹介されました。SK hynixは今後、将来のAIサービスの課題に対応する革新的なAIメモリソリューションを提供することで、技術的リーダーシップの強化に取り組んでいきます。

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH