FMS 2025:SK hynixが革新的な技術ショーケースを通じてAIとストレージの未来を提示

トレンドセッター
この記事を読むのにかかる時間: 6

FMS 2025におけるSK hynixのブース

SK hynixは、8月5日から7日までカリフォルニア州サンタクララで開催された「FMS: the Future of Memory and Storage 2025」において、最先端のDRAM、NAND、AIメモリソリューションを発表し、メモリ分野におけるグローバルリーダーシップを強化しました。

19年目を迎えるFMSは、以前は「Flash Memory Summit」として知られていましたが、2024年に名称を「Future of Memory and Storage」に変更しました。AI時代の変革的な影響力を反映し、イベントの名称は「Future of Memory and Storage」に変更されました。イベントの範囲も、フラッシュメモリのみに焦点を当てていたものから、DRAMを含むメモリとストレージ技術のあらゆる領域をカバーするものへと拡大されました。

12 前へ 次へ

FMS 2025におけるSK hynixのブースには、多くの来場者が訪れました。

SK hynixは、フルスタックAIメモリプロバイダーを目指し、次世代AIイノベーションを推進する多様なメモリ製品と先進技術を展示しました。 SK hynixは、基調講演、詳細なプレゼンテーション、魅力的なブース展示など、一体となったアプローチを通じて、これらのメモリおよびストレージソリューションを効果的にアピールしました。これにより、世界中のパートナー企業はSK hynixの技術的リーダーシップを直接体験し、パートナー間の連携を強化することができました。

123PreviousNext

SK hynixの画期的なDRAMおよびNAND製品を展示

ブース:AI時代向けに最適化された幅広いメモリポートフォリオ

SK hynixは、DRAMおよびNANDテクノロジーのあらゆる領域において、世界のAIメモリ市場をリードすると期待される製品を展示しました。14のDRAMベース製品を展示し、その中には、業界で初めて2025年3月に主要顧客に納入される12層HBM41のサンプルも含まれていました。その他の注目すべき製品には、LPDDR5X2、CXL3メモリモジュール-DDR5(CMM-DDR5)、3DS4 RDIMM、Tall MRDIMM5などがあります。

1高帯域幅メモリ(HBM):複数のDRAMチップを垂直に積層することで、従来のDRAMの性能を凌駕し、データ処理速度を大幅に向上させた高付加価値・高性能製品。2低消費電力ダブルデータレート5X(LPDDR5X):複数のDRAMチップを垂直に積層することで、従来のDRAMの性能を凌駕し、データ処理速度を大幅に向上させた高付加価値・高性能製品。3Compute Express Link(CXL):CPU、GPU、メモリ、その他の主要なコンピューティングシステムコンポーネントを統合するように設計された次世代ソリューション。大規模かつ超高速な計算において比類のない効率性を実現します。43Dスタックメモリ(3DS):2つ以上のDRAMチップをパッケージ化し、TSV技術を用いて相互接続した高帯域幅メモリ製品。5マルチプレックスランクデュアルインラインメモリモジュール(MRDIMM):複数のDRAMチップを基板上に搭載したサーバーメモリモジュール製品。モジュールの基本動作単位である2つのランクを同時に動作させることで速度が向上します。

同社はまた、合計19のNANDソリューション製品を発表しました。これには、176層4D NANDをベースにしたデータセンター向けeSSD「PS1010 E3.S」、238層4D NANDをベースにした「PEB110 E1.S」、SK hynix初のPC向けQLC6 SSD「PQC21」、そして業界最大となる245TBの容量を誇る新開発のデータセンター向けeSSD「PS1101 E3.L」が含まれます。

6 クアッドレベルセル(QLC):NANDフラッシュは、1つのセルに格納できるデータビット数によって、シングルレベルセル(SLC)、マルチレベルセル(MLC)、トリプルレベルセル(TLC)、QLC、ペンタレベルセル(PLC)に分類されます。情報記憶容量が増加するほど、同じ容量でより多くのデータを保存できます。

CMM-DDR5のシステム拡張性を強調したデモ

FMS 2025において、SK hynixはライブ製品デモと展示を通して、その技術力と競争優位性をアピールしました。デモの一つでは、Intel Xeon 6プロセッサを搭載したSK hynixのCMM-DDR5が紹介されました。このCMM-DDR5は、基本的なサーバーシステムにおいて、最大50%の容量増加と最大30%のメモリ帯域幅向上を実現します。このデモでは、CMM-DDR5の実運用における実用性だけでなく、システムの拡張性も強調し、従来のスタンドアロンメモリ構成よりも優れた性能とコスト効率を際立たせました。

12 前へ 次へ

データ認識型CSDをベースとしたOASISは、独立した分析と検出が可能です。

SK hynixは現在、ロスアラモス国立研究所7(LANL)との共同研究プロジェクトに取り組んでおり、高性能コンピューティング(HPC)環境におけるデータ分析性能を向上させる次世代ストレージ技術の開発に取り組んでいます。 SK hynixは、デモンストレーションで、独立したデータ分析と検出を実行できるデータアウェアCSD8をベースにしたOASIS計算ストレージを披露しました。実際のHPCワークロードを用いて、リアルタイムで向上したデータ分析性能を示したプレゼンテーションは、多くの参加者を魅了しました。

7ロスアラモス国立研究所(LANL):米国エネルギー省傘下の国立研究開発センター。国家安全保障、核融合、宇宙探査など幅広い分野における研究を行っています。特に、第二次世界大戦中、世界初の核兵器を開発した連合軍の取り組みであるマンハッタン計画のための科学研究を行ったことで知られています。8計算ストレージドライブ(CSD):格納されているデータに対して直接計算を実行するストレージデバイス。

12前へ次へ

PIMベースのGDDR6-AiMおよびAiMX製品は、計算速度を高速化します。

別のデモンストレーションでは、GDDR6-AiMなどのPIM9製品が紹介されました。この製品は、16ギガビット/秒(Gbps)のデータ処理速度を実現するGDDR6に計算機能を追加します。CPUまたはGPUと組み合わせることで、GDDR6-AiMは特定の条件下で最大16倍の計算速度を実現します。計算速度を高速化できるもう1つの実証済み製品は、大規模データを低消費電力で効率的に処理できる高性能アクセラレータカードであるAiMX10です。

9Processing-In-Memory(PIM):計算機能をメモリに統合し、AIやビッグデータ処理におけるデータ移動のボトルネックを解決する次世代メモリ技術。10AiMベースアクセラレータ(AiMX):SK hynixの高度なアクセラレータカード。GDDR6-AiMチップを搭載し、膨大なテキストデータセットでトレーニングされたChatGPTなどのAIシステムであるLLM向けに特別に設計されています。

CXLプールメモリソリューションを用いたメモリセントリックAIマシンのデモ

最後に、メモリセントリックAIマシンのデモでは、プールメモリ11を用いて複数のサーバーとGPUを接続する分散LLM推論システムを取り上げました。このデモでは、CXLプールメモリベースのデータ通信を活用することで、ネットワーク通信を用いるシステムと比較して、LLM推論システムのパフォーマンスを大幅に向上できることを示しました。

11プールメモリ:複数のCXLメモリユニットを共有プールにグループ化する技術。複数のホストがメモリ容量を効率的に割り当て、共有することを可能にします。このアプローチにより、全体的なメモリ使用率が大幅に向上します。

基調講演:次世代AIインフラストラクチャにおけるリーダーシップの強調

SK hynixの従業員は、FMS 2025で主要講演者として基調講演を行い、NVIDIAが主催するエグゼクティブAIパネルにも参加し、合計13のプレゼンテーションを行いました。これらのセッションを通じて業界知識を共有することで、SK hynixは次世代AIメモリ市場を牽引するグローバルリーダーとしての地位を示しました。

HBM事業企画担当副社長 チェ・ジュンヨン氏による基調講演
eSSD製品開発担当副社長 キム・チュンソン氏による基調講演
HBM事業企画担当副社長 チェ・ジュンヨン氏による基調講演
eSSD製品開発担当副社長 キム・チュンソン氏による基調講演12PreviousNext

eSSD製品開発担当副社長 キム・チュンソン氏とHBM事業企画担当副社長 チェ・ジュンヨン氏は共同で基調講演「AIの始まり:フルスタックメモリが未来を再定義する」を行いました。講演の中で、キム氏はAI業界がトレーニングから推論へと移行する中で、メモリ技術の進化が重要であることを強調しました。さらに、SK hynixのストレージソリューションは、AI推論シナリオにおけるデータ集約型ワークロードへの高速かつ信頼性の高いアクセスを提供するように設計されていると付け加えました。
一方、チェ氏は、HBMは高帯域幅と低消費電力という構造上の利点を備えているため、多様な顧客ニーズに対応できると述べました。同氏はさらに、SK hynixはAIシステムの拡張性とTCO12を形作る2つの重要な要素、すなわちパフォーマンスと電力効率を満たすため、様々なAI環境向けに最適化された包括的なメモリポートフォリオを提供すると付け加えた。

12総所有コスト(TCO):購入費、エネルギー費、保守費を含む、資産の取得、運用、保守にかかる総コスト。

SK hynix DRAMシステム分析担当 キム・ミンソン氏
SK hynix モバイルソリューションQE担当 チョ・ヨンウイ氏
SK hynix 次世代ソリューションアーキテクチャ管理担当 ファン・ミンスン氏
SK hynix 次世代ソリューションアーキテクチャ管理担当 キム・スジン氏
SK hynix AI/DAソリューション開発担当 ジョン・ジョンソク氏
SK hynix DRAMシステム分析担当 キム・ミンソン氏
SK hynix モバイルソリューションQE担当 チョ・ヨンウイ氏12345前へ次へ

3日間にわたるイベント中、SK hynixの担当者は、次世代AI市場を牽引する主要トピックについて、洞察に満ちたプレゼンテーションを行いました。トピックには、メモリ技術とスケーラブルなインフラストラクチャ、不揮発性メモリと高効率メモリの進歩、AIインフラストラクチャとLLMトレーニングの最適化、データ分析とガバナンス、AI主導の人材管理などが含まれていました。

12PreviousNext

SK hynix AmericaのDRAMテクノロジー責任者であるSunguk Kang氏が、NVIDIAのエグゼクティブAIパネルディスカッションに参加

SK hynix AmericaのDRAMテクノロジー責任者であるSunguk Kang副社長は、NVIDIAが主催・司会を務めたエグゼクティブAIパネルディスカッション「AI推論のためのメモリとストレージのスケーリング」に参加しました。パネルディスカッションでは、AI技術のトレンドと異業種連携戦略について詳細な解説を行いました。その中で、AIのトレーニングには帯域幅が不可欠である一方で、AI推論にはそれを上回るインテリジェントなメモリとストレージソリューションが必要であるという見解を示しました。また、超高性能ネットワークとスマートメモリ技術によって、AI推論のスループットを大幅に向上できることも強調しました。
FMS 2025において、SK hynixは多様な革新的な製品群を通じて、メモリとストレージにおける卓越した技術的専門知識をアピールしました。同社は、今日の AI 主導社会の進化するニーズに対応するため、研究開発への継続的な投資に注力し、DRAM と NAND の両テクノロジーにわたって AI メモリのリーダーシップをさらに強化していきます。

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH