SK hynixは、10月13日から16日までカリフォルニア州サンノゼで開催された2025 OCP Global Summitにおいて、AIとデータセンターインフラを強化するフルスタックAIメモリポートフォリオを展示しました。
OCP Global Summitは、世界最大のオープンデータセンター技術コラボレーションコミュニティであるOpen Compute Project(OCP)が主催するカンファレンスです。「AIの未来をリードする」というテーマのもと開催された今年のイベントでは、世界をリードする企業や開発者の専門家が集まり、データセンターとAIインフラの最新動向を共有し、業界ソリューションの開発について議論しました。
1234PreviousNext
SK hynixのブースに集まる来場者
「メモリ、AIと明日を駆動する」というスローガンの下、SK hynixはAIインフラのパフォーマンスと効率を向上させる革新的な技術を幅広く紹介しました。同社のインタラクティブブースは、HBM1、AiM2、DRAM、eSSD3の4つのセクションに分かれており、製品をベースにしたキャラクターデザイン、主要技術の3Dモデル、ライブデモンストレーションなどが展示されました。
1 高帯域幅メモリ(HBM):複数のDRAMチップを垂直に相互接続し、従来のDRAM製品と比較してデータ処理速度を飛躍的に向上させる、高付加価値・高性能メモリ製品です。HBMには6世代あり、初代HBMから始まり、HBM2、HBM2E、HBM3、HBM3E、HBM4へと続きます。2 アクセラレータ・イン・メモリ(AiM):メモリに演算機能を統合した次世代ソリューションです。3 エンタープライズ・ソリッドステート・ドライブ(eSSD):サーバーやデータセンターで使用されるエンタープライズグレードのSSDです。
SK hynixブースの目玉は、画期的な12層HBM4でした。 2025年9月、当社は世界に先駆けてHBM4の開発を完了し、量産体制を構築しました。HBM4は、前世代の2倍となる2,048個の入出力(I/O)チャネルを備え、帯域幅の拡大と40%以上の電力効率向上を実現しています。これらの仕様により、超高性能AIコンピューティングシステムに最適化されています。
HBM4に適用される技術の3Dモデル
SK hynixのHBM4とHBM3Eが、NVIDIAのGB300 Grace Blackwell GPUと並んで展示されました。
12層HBM4と12層HBM3E
SK hynixのHBM3Eを搭載したNVIDIAの次世代GB300 GPUモジュール
HBM4に適用される技術の3Dモデル
SK hynixのHBM4とHBM3Eが、NVIDIAのGB300 Grace Blackwell GPUと並んで展示されました。1234PreviousNext
SK hynixは、業界最大容量のHBMである36GB HBM3Eを、NVIDIAの次世代GB300 Grace™ Blackwell GPUに適用した様子も展示しました。展示の横には、TSV4やAdvanced MR-MUF5など、HBMに採用されている高度なパッケージング技術をより深く理解するための3Dモデルが展示されました。
4 シリコン貫通ビア(TSV):シリコンに数千個の微細な穴を開け、垂直電極で各層を接続することで、垂直に積層されたDRAMチップを接続する技術。5 アドバンスト・マス・リフロー・モールド・アンダーフィル(MR-MUF):反り制御を強化した次世代MR-MUF技術。前世代よりも40%薄いチップの積層を可能にしました。新しい保護材料の採用により、放熱性も向上しています。
ブースに展示されたAiMXカード
AiMセクションでは、SK hynixが複数のGDDR6-AiMチップを搭載したAiMX6カードのライブデモンストレーションを行いました。このデモンストレーションでは、4枚のAiMXカードと2基のNVIDIA H100 GPUを搭載したサーバーが使用され、メモリバウンド9ワークロードの速度と効率を向上させることで、AiMXがアテンション7演算(LLM8のコアコンピューティング)向けに最適化されている様子が紹介されました。 AiMXは、長時間の質問応答シーケンスにおけるKVキャッシュ10の利用率を向上させ、メモリウォール11の問題を軽減します。デモンストレーションでは、MetaのLlama 3 LLMをvLLM12上で実行し、複数のユーザーが同時にシームレスにチャットボットサービスにアクセスできることを実証しました。これにより、来場者はSK hynixのAiM製品の優れた技術力を実際に体験することができました。
6AiM ベース アクセラレータ (AiMX): SK hynix のアクセラレータ カードで、大規模言語モデル (LLM) に特化した GDDR6-AiM チップを搭載しています。ChatGPT などの AI システムは、大規模なテキスト データ セットでトレーニングされています。7アテンション: 入力データのどの部分に重点を置くかを動的に決定するアルゴリズム手法。8大規模言語モデル (LLM): 大規模なデータ セットでトレーニングされ、自然言語処理タスクを理解して生成する AI モデル。9メモリ バウンド: システム パフォーマンスがプロセッサの計算能力ではなくメモリ アクセス速度によって制限され、データ アクセスを待機している間に遅延が発生する状況。10キー値 (KV) キャッシュ: 以前に計算されたキーと値のベクトルを保存して再利用し、以前の入力のコンテキストを保持することで、冗長な計算を減らし、より効率的に応答するテクノロジ。11メモリ ウォール:
12345PreviousNext
CXLベースのソリューションは、システムメモリ容量と帯域幅の柔軟な拡張を可能にします
SK hynixのブースでは、システムメモリ容量と帯域幅の柔軟な拡張を可能にするCXL13ベースの様々なソリューションも展示されました。その中には、複数のサーバーとGPUをネットワークなしで接続する分散LLM推論システムが含まれます。CXLプールメモリは、複数のプロセッサ(ホスト)が柔軟にメモリを共有できるようにします。また、SK hynixは、CXLメモリにコンピューティング能力を追加するCXLメモリモジュールアクセラレータ(CMM-Ax)をSK TelecomのPetasus AI Cloudに適用し、その性能を披露しました。
Compute Express Link(CXL):CPU、GPU、メモリ、その他の主要なコンピューティングシステムコンポーネントを統合するように設計された次世代ソリューションで、大規模および超高速コンピューティングにおいて比類のない効率性を実現します。
さらに、SK hynixは、さまざまな種類のメモリを最適な構成で活用するのに役立つ階層化ソリューションのパフォーマンスメリットを検証しました。このソリューションは、CXL 3.2規格で初めて導入されたCHMU14によって実現されました。別のデモでは、CMM-DDR5をベースとしたLLMサービスシステムの強化されたプロンプトキャッシング15機能を紹介し、ユーザーリクエストへの応答時間を短縮することで大きな注目を集めました。
14 CXLホットレンジモニタリングユニット(CHMU):複数のメモリデバイスの使用頻度を監視し、効率的なシステム運用とデバイスの最適化を支援する技術。15 プロンプトキャッシング:過去に処理されたプロンプトをAIモデルに保存することで、繰り返し使用時の処理時間を短縮し、コストを削減する技術。
ブースでは多様なDRAMソリューションを展示
DRAMセクションでは、SK hynixが次世代サーバー市場をターゲットとしたDDR5ベースのモジュールラインナップを展示しました。特に、幅広い容量とフォームファクタを備えた多様な製品ポートフォリオが注目を集めました。これらには、10nmプロセス技術の第6世代である1c18ノードを採用したRDIMM16およびMRDIMM17製品、そして3DS19 DDR5 RDIMMおよびDDR5 Tall MRDIMMが含まれます。
16レジスタード・デュアル・インライン・メモリ・モジュール(RDIMM):複数のDRAMチップを基板上に搭載したサーバー用メモリモジュール製品。17マルチプレックス・ランク・デュアル・インライン・メモリ・モジュール(MRDIMM):モジュールの基本動作単位である2つのランクを同時に動作させることで速度を向上させたサーバー用メモリモジュール製品。181c:10nm DRAMプロセス技術は、1x、1y、1z、1a、1b、1cの6世代を経て進化を遂げてきました。193Dスタックド・メモリ(3DS):2つ以上のDRAMチップをパッケージ化し、TSV技術を用いて相互接続した高性能メモリソリューション。
1234PreviousNext
eSSDコーナーに展示された様々なeSSD製品
eSSDコーナーでは、サーバーやデータセンター向けに最適化された様々なストレージソリューションが紹介されました。176層4D NANDを搭載したPS1010 E3.SおよびU.2モデル、そして238層4D NANDを搭載したPEB110 E1.Sなどが展示されました。さらに、業界最高層となる321層QLC20を搭載した超大容量モデル、245TBのPS1101 E3.Lも展示されました。これらのeSSDラインナップは、高性能PCIe Gen 5 NVMe21から小型サーバー向けのSATA22インターフェースまで、多様なサーバー環境と性能要件を満たすように設計されています。
20 クアッドレベルセル(QLC):NANDフラッシュで使用されるメモリセルの一種で、1つのセルに4ビットのデータを格納します。 NANDフラッシュは、1つのセルに格納できるデータビット数に応じて、シングルレベルセル(SLC)、マルチレベルセル(MLC)、トリプルレベルセル(TLC)、QLC、ペンタレベルセル(PLC)に分類されます。21NVMe(Non-Volatile Memory Express):高速シリアル通信インターフェースであるPCIeを活用し、SSDの性能を最大限に引き出すデータ転送プロトコル。22シリアルATA(SATA):ハードドライブやSSDで広く使用されている従来のインターフェース。NVMeに比べて速度は遅いものの、高い互換性と安定性を備えているため、小規模サーバーやエントリーレベルのPCに適しています。
次世代メモリ&ストレージ担当の「トーマス」・ウォナ・チェ氏が、ストレージが市場の需要にどのように応えられるかについて講演しました。
SK hynixは、プレゼンテーションセッションを通じて業界の専門知識を共有しました。
SK hynixは、プレゼンテーションセッションを通じて業界の専門知識を共有しました。
eSSD製品開発責任者のキム・チュンソン副社長が、AI時代のストレージソリューションについて講演しました。
次世代メモリ&ストレージ担当の「トーマス」・ウォナ・チェ氏が、ストレージが市場の需要にどのように応えられるかについて講演しました。
SK hynixは、プレゼンテーションセッションを通じて業界の専門知識を共有しました。
1234Previous Next
SK hynixは、画期的な製品を展示するだけでなく、プレゼンテーションセッションで次世代ストレージ戦略についても発表しました。eSSD製品開発責任者のキム・チュンソン副社長は、「SSDの先へ:SK hynix AINファミリー:大規模AIのコアイネーブラーとしてのストレージの再定義」と題したプレゼンテーションを行いました。講演の中で、キム氏はAI時代に向けた大容量・高性能なソリューションを紹介し、製品競争力を強化するための戦略を概説しました。一方、Next-Gen Memory & StorageのThomas Wonha Choi氏は、「AI推論に最適化された次世代メモリとストレージの概念化」と題した講演を行いました。彼のセッションでは、新たな市場環境と顧客需要に合わせて、パフォーマンスと消費電力のニーズを満たすための方向性が提案されました。
OCP Global Summit 2025において、SK hynixはグローバルな連携を強化し、技術戦略を推し進める上で新たな一歩を踏み出しました。この勢いを基盤に、同社はフルスタックAIメモリプロバイダーへと進化し、急速に進化するAIインフラストラクチャ環境に向けて革新的なソリューションを提供し続けます。
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。
