SKハイニックスは、11月3日から4日にソウルで開催されたSK AI Summit 2025で、次世代AIメモリ戦略とロードマップを発表しました。「AI Now & Next」をテーマに開催されたこのサミットで、同社はフルスタックAIメモリプロバイダーというビジョンから、フルスタックAIメモリの「クリエイター」というより広範な役割へと進化を遂げました。
SKグループが毎年主催するこのイベントは、以前はSK Tech Summitとして知られていましたが、AIに重点を置き、2024年からはSK AI Summitへと進化しました。今年のイベントでは、世界中のAI専門家と業界の専門家が集まり、AI技術の現状と未来、そして様々な業界におけるAIの応用について議論しました。
参加者には、SKグループのチェ・テウォン会長、SKハイニックスのクァク・ノジョンCEO、SKテレコムのチョン・ジェフンCEOなどが名を連ねました。 OpenAI CEOのサム・アルトマン氏やAmazon CEOのアンディ・ジャシー氏といった著名なテクノロジーリーダーがビデオで基調講演を行いました。さらに、NVIDIA、Amazon Web Services(AWS)、Google、TSMC、Metaといった世界的なテクノロジー企業に加え、K-AI Alliance1の国内メンバー企業も多数参加し、AIエコシステム全体における協業の機会について議論しました。
1K-AI Alliance:SKテレコムが設立したK-AI Allianceは、韓国のAI産業の発展とグローバル展開をリードすることを目指す韓国のテクノロジー企業で構成されています。
本イベントでは、基調講演、プレゼンテーションセッション、展示が行われ、AI技術の現状と未来を多角的に探求するフォーラムとなりました。AIインフラにおけるリーディングイノベーターであるSK hynixは、AI拡張時代に向けたメモリ技術ロードマップを発表し、業界全体との協業ビジョンを概説することで、その技術的リーダーシップを際立たせました。
SKハイニックスのクァクCEOは、AI導入の加速を背景にメモリ業界の役割と発展の道筋が進化していることについて基調講演を行い、大きな注目を集めました。さらに、メモリシステムリサーチのキム・ホシク上級副社長が基調講演パネルセッションに参加し、AIインフラのボトルネックの解決策とメモリ中心のアーキテクチャの重要性について議論しました。SKハイニックスが主催したセッションでは、Biz. Insightのパク・キョン副社長、システムアーキテクチャのジュ・ヨンピョ副社長、バージニア大学のイ・キュサン教授が次世代AIメモリ技術に関する知見を共有し、SKハイニックスの技術的リーダーシップを強化しました。
12PreviousNext
SKグループ会長のチェ・テウォン氏がSK AI Summit 2025で基調講演
SKグループ会長のチェ氏は、「AI Now & Next」をテーマに基調講演を行い、AI時代の次の段階について議論を展開しました。 「AI業界は今、規模の競争から効率性の競争へと移行しつつあります」とチェイ氏は述べ、急増するAI需要に対応する上でSKの役割はAIソリューションの効率性向上にあると付け加えた。チェイ氏はさらに、「SKのAI戦略の中核は、大手IT企業、政府、スタートアップ企業といったパートナーと協力し、最も効率的なAIソリューションを共同設計・提供することです。SKはパートナーと競合するのではなく、パートナーと共にAIビジネスの機会を創出し、最も効率的なAIソリューションを見つけていきます」と強調した。
12Previous Next
(最初の画像より)OpenAIのサム・アルトマンCEOとAmazonのアンディ・ジャシーCEOがビデオで基調講演を行っている
クァクCEO、AIエコシステム拡大に向けたメモリビジョンを発表
サミット初日、SKハイニックスのクァクCEOは「AI時代におけるSKハイニックスの新たなビジョンと新たな技術」と題した基調講演を行った。昨年発表されたビジョンを基に、拡大するAI時代の要求に応えるべくビジョンを洗練させ、技術革新とエコシステム連携の方向性についてより詳細な説明を行いました。
123PreviousNext
SK hynix CEOのクァク・ノジョン氏がサミットで基調講演を行いました。
「AIの拡大に伴いデータ移動が増大するにつれ、ハードウェアの性能向上による対応が不可欠になっています」とクァク氏は述べました。「しかし、メモリ速度がプロセッサの進歩に追いつかず、メモリウォール2が技術進歩の大きな障害となっています。メモリはもはや単なる部品ではなく、AI業界の中核を成す重要な価値製品になりつつあります。問題は、以前と同じレベルの性能向上では市場の要求に応えられなくなっているということです。」
2メモリウォール:メモリアクセス速度がデータプロセッサの速度に追いつかない場合に発生するボトルネック。
クァク氏はその後、同社の再定義されたビジョンの概要を説明しました。 「SK hynixはこれまで、お客様が必要とする製品を適時に提供するフルスタックAIメモリプロバイダーへの道を歩んできました」と氏は述べ、「今後は、お客様の課題を解決し、エコシステムと連携してより大きな価値を共に創造する、フルスタックAIメモリの『クリエーター』へと進化することを目指します。エコシステムの共同設計者、パートナー、そして貢献者として、SK hynixはAIインフラの未来をデザインしていきます」と続けた。
続いて、カスタムHBM3、AI DRAM(AI-D)、AI NAND(AI-N)の3つの柱からなるSK hynixのフルスタックAIメモリ戦略を発表した。まず、カスタムHBMは、これまでGPUやASIC4で処理していた特定のコンピューティング機能をHBMのベースダイに移植することで、パフォーマンスを最大化する設計となっている。このアプローチは、汎用的なパフォーマンスから推論効率、そして総所有コスト(TCO)の最適化へと移行しつつある、進化するAI市場の需要に対応している。カスタムHBMは、GPUとASICの演算効率を向上させ、データ転送時の消費電力を削減することで、システム全体の効率を高めます。
3高帯域幅メモリ(HBM):複数のDRAMチップを垂直に相互接続し、従来のDRAM製品と比較してデータ処理速度を大幅に向上させる、高付加価値・高性能メモリ製品です。HBMには6世代があり、初代HBMからHBM2、HBM2E、HBM3、HBM3E、HBM4へと続きます。4特定用途向け集積回路(ASIC):カスタム半導体とも呼ばれるASICは、特定の用途向けに設計された集積回路です。
一方、AI-Dは、従来の汎用DRAMの枠を超え、AI時代の要求に応えるように最適化されたセグメント化されたDRAM製品ラインアップです。SK hynixは、以下の製品を開発しています。
AI-D O(最適化):データセンターのTCO削減と運用効率を支援する低消費電力・高性能DRAM。例として、MRDIMM、SOCAMM2、LPDDR5Rなどが挙げられます。
AI-D B(ブレークスルー):CXLメモリモジュール(CMM)やプロセッシング・イン・メモリ(PIM)など、メモリの壁を克服するために設計された超大容量で柔軟性の高いメモリソリューション。
AI-D E(拡張):データセンターだけでなく、ロボティクス、モビリティ、産業オートメーションなどの分野にも応用可能なHBMなどのDRAMソリューション。
最後に、AI-Nは、AIシステム向けに高性能、高帯域幅、超大容量を兼ね備えた次世代ストレージソリューションラインナップです。SK hynixは、関連するNAND技術を3つの戦略的方向性で進化させ、AI向けストレージソリューションにおける競争力を大幅に強化しています。
AI-N P(パフォーマンス):チャンクサイズの縮小により、大規模AI推論環境における1秒あたりの入出力操作数(IOPS)を大幅に向上させる超高性能SSD。AIコンピューティングとストレージ間のボトルネックを最小限に抑え、処理速度とエネルギー効率を向上させます。 SK hynixは、新しいアーキテクチャに基づいてNANDとコントローラーを再設計しており、2026年末までにサンプルをリリースする予定です。
AI-N B(帯域幅):HBMのような積層構造をNANDに適用することで帯域幅を拡大した、大容量かつコスト効率の高いソリューションです。
AI-N D(密度):低消費電力と最小限のコストで大規模なデータセットを保存することに重点を置いた大容量ソリューションで、AIデータストレージに適しています。これらのQLC5ベースのソリューションは、SSDの速度とHDDの経済性を兼ね備え、ペタバイト規模の容量を実現することを目指しています。
5クアッドレベルセル(QLC):NANDフラッシュで使用されるメモリセルの一種で、1つのセルに4ビットのデータを保存します。NANDフラッシュは、1つのセルに保存できるデータビット数に応じて、シングルレベルセル(SLC)、マルチレベルセル(MLC)、トリプルレベルセル(TLC)、QLC、ペンタレベルセル(PLC)に分類されます。
基調講演の締めくくりに、クァク氏は次のように付け加えました。「SK hynixは、AI業界のグローバル企業と『ワンチーム』の協業関係を構築し、次世代AIを推進することで、AIメモリのリーディングカンパニーとしての役割をさらに拡大していきます。」
AIインフラの未来を議論:メモリ中心の技術知見の共有
1234Previous Next
(最初の画像から)メモリシステムリサーチのキム・ホシク氏、Biz. Insightのパク・キョン氏、システムアーキテクチャのジュ・ヨンピョ氏、バージニア大学のイ・キュサン教授
SK hynixのメモリシステムリサーチ担当シニアバイスプレジデントであるキム・ホシク氏は、「AIインフラのボトルネックの克服:メモリ中心アーキテクチャが実現する未来」と題した基調講演パネルセッションに参加しました。このセッションには、カリフォルニア大学バークレー校名誉教授のデビッド・A・パターソン氏、スタンフォード大学教授のフィリップ・ウォン氏、Metaのディスティングイッシュメントエンジニアのキム・チャンキュ氏も参加しました。 MemVergeの共同創業者兼CEOであるCharles Fan氏も登壇しました。キム副社長は、AIコンピューティング性能の拡張におけるメモリ中心のアーキテクチャの必要性について議論し、業界全体にわたる協力的なエコシステムを構築する方法を探りました。
SK hynixのBiz. Insight担当副社長Kyoung Park氏は、「AIサービスインフラの進化とメモリの役割」と題したセッションを行いました。Park氏は、AIサービスが急速に多様化しており、大規模モデルを用いたクラウドベースの推論から、エッジサーバーやデバイス上で実行される軽量モデルまで多岐にわたると指摘しました。また、メモリの役割は従来のストレージの役割を超えて進化し、AIシステムのパフォーマンスを左右する重要なリソースとして台頭していると強調しました。さらに、メモリ技術はAIインフラにおけるイノベーションの重要な推進力となると述べました。
SK hynixのシステムアーキテクチャ担当副社長Youngpyo Joo氏は、「メモリソリューションプロバイダーの観点から見たシステムレベルパートナーとの連携の必要性と方向性」と題したセッションを行いました。各ワークロードの要件に最適化されたメモリ構造を実装するには、ASICベンダーやシステムベンダーとの緊密な連携が不可欠であると強調しました。また、構造設計、インターフェース、電力、熱特性を考慮した統合的なアプローチも提案しました。
最後に、バージニア大学のKyusang Lee教授は、「大規模コンピューティングネットワークの実装に向けた次世代CPOベース接続技術への進化」と題した講演を行いました。Lee教授は、現在の電気相互接続は、大規模AIコンピューティングネットワークにおいて、帯域幅とエネルギー効率において構造的な限界に直面していると説明し、これらの限界を克服するための重要な技術としてCo-Packaged Optics(CPO)を強調しました。また、レーザー光源に伴う熱や波長変動の問題に対処するための潜在的な代替技術として、マイクロLEDベースの光源も挙げました。
主要講演に合わせてAIメモリを展示
SK AI Summit 2025におけるSKグループの共同ブース
「The Next Depth」をコンセプトに運営されたSKグループの共同ブースでは、SK hynixがAIインフラストラクチャのパフォーマンスと効率を最大化するために設計された幅広い革新的技術を展示しました。
SK hynix製HBM3Eを搭載したNVIDIAの次世代GB300 Grace™ Blackwell GPU
12層HBM4と12層HBM3Eを展示
SK hynix製HBM3Eを搭載したNVIDIAの次世代GB300 Grace™ Blackwell GPU
12層HBM4と12層HBM3Eを展示
12PreviousNext
NVIDIAの展示のハイライトの一つは、超高性能AIコンピューティングに必要な高帯域幅と電力効率を実現する12層HBM4でした。また、SK hynix製36GB HBM3Eを搭載したNVIDIAの次世代GB300 Grace™ Blackwellスーパーチップも展示されました。これは、業界最大容量のHBMです。
多様なDRAMソリューション
DRAMモジュールセクションでは、SK hynixが1c8ノードを活用したRDIMM6およびMRDIMM7ソリューションなど、AI向けの様々な次世代製品を発表しました。また、PCからAIサーバーまで幅広いプラットフォーム向けに最適化された、256GB 3DS9 RDIMM、256GB Tall MRDIMM、SOCAMM210、LPCAMM211、CXL12メモリモジュール(CMM)-DDR5ソリューションも展示されました。
6RDIMM(Registered Dual In-line Memory Module):複数のDRAMチップを基板上に実装したサーバー用メモリモジュール製品。7MRDIMM(Multiplexed Rank Dual In-line Memory Module):モジュールの基本動作単位である2つのランクを同時に動作させることで速度を向上させたサーバー用メモリモジュール製品。81c:10nm DRAMプロセス技術は、1x、1y、1z、1a、1b、1cの6世代を経て進化してきました。93D Stacked Memory(3DS):2つ以上のDRAMチップをパッケージ化し、TSV技術を使用して相互接続した高性能メモリソリューション。10SOCAMM(Small Outline Compression Attached Memory Module):AIサーバーに特化した低消費電力DRAMベースのメモリモジュール。11LPCAMM2(Low Power Compression Attached Memory Module 2):省電力、高性能、省スペースを兼ね備えたLPDDR5Xベースのモジュールソリューション。 DDR5 SODIMM 2枚相当の性能レベルを実現します。12Compute Express Link (CXL): CPU、GPU、メモリ、その他の主要なコンピューティングシステムコンポーネントを統合するように設計された次世代ソリューションで、大規模かつ超高速な計算において比類のない効率を実現します。CXLを既存のメモリモジュールに適用することで、容量を10倍以上に拡張できます。
12PreviousNext
CXLプールメモリ(Niagara 2.0)ソリューションを使用したメモリセントリックAIマシン
SK hynixは、プールメモリ13を使用して複数のサーバーとGPUを接続する分散型大規模言語モデル(LLM)推論システムも発表し、メモリセントリックアーキテクチャへの移行を強調しました。このデモでは、従来のネットワーク方式よりもCXLプールメモリベースのデータ通信を使用することで、LLM推論システムのパフォーマンスを向上させることができることを示しました。
13プールメモリ: 複数のCXLメモリユニットを共有プールにグループ化し、複数のホストがメモリ容量を効率的に割り当てて共有できるようにする技術。このアプローチにより、メモリ全体の使用率が大幅に向上します。
12PreviousNext
SK hynixがGDDR6-AiMとAiMXを展示
別のデモでは、AiMX14がLLMの中核演算であるアテンション15演算にどのように最適化されているかが紹介されました。AiMXカードとNVIDIA H100 GPUを搭載したサーバーでは、AiMXはメモリバウンド16ワークロードの速度と効率を大幅に向上させました。また、AiMXは長い質疑応答シーケンス中のKVキャッシュ17の使用効率も向上させ、メモリボトルネックを軽減します。
14AiMベースアクセラレータ(AiMX):大規模言語モデル(LLM)(ChatGPTなどのAIシステムを大規模なテキストデータセットで学習させる)に特化したGDDR6-AiMチップを搭載したSK hynixのアクセラレータカード。15アテンション:入力データのどの部分に着目するかを動的に決定するアルゴリズム。16メモリバウンド:システム性能がプロセッサの計算能力ではなくメモリアクセス速度によって制限され、データアクセスの待機中に遅延が発生する状況。17キーバリュー(KV)キャッシュ:以前に計算されたキーと値のベクトルを保存・再利用する技術。以前の入力のコンテキストを保持することで、冗長な計算を削減し、より効率的に応答する。
SK hynixの各種eSSD製品
SK hynixは、PS1010 E3.S、PEB110 E1.S、PS1101 E3.Lを含む高性能eSSD18ラインナップも発表しました。コンピューティングサーバーとストレージサーバー向けに最適化されたeSSDポートフォリオは、AIサービスインフラストラクチャにおけるデータ処理効率と、大規模コンピューティング環境におけるストレージ利用効率を向上させます。
18エンタープライズソリッドステートドライブ(eSSD):サーバーやデータセンターで使用されるエンタープライズグレードのSSD。
ウェーハノッチ角度検出システム
AIXゾーンでは、ウェーハノッチ角度検出システムを展示しました。このシステムは、YOLOv8-OBBディープラーニングモデルを半導体チャンバー19内に適用し、ウェーハノッチをリアルタイムかつ高精度に検出します。従来のセンサーベースの方法の限界を克服し、プロセス欠陥を未然に防ぎ、装置メンテナンスコストを削減できることで注目を集めました。
19半導体チャンバー:半導体製造装置内で特定のプロセスを実行する密閉された空間。例えば、エッチングプロセスでは、チャンバーは半導体ウェーハを処理する空間として機能します。半導体製造装置は通常、製造プロセス全体を通して様々なタスクを実行する複数のチャンバーで構成されています。
SK AIサミット2025で、SKハイニックスは、コラボレーションとイノベーションを基盤とした、AIメモリを新たな高みへと導く大胆な新ビジョンを発表しました。SKハイニックスのクァクCEOは、「SKハイニックスは、お客様、パートナー、そしてより広範なエコシステムと共に、AIメモリの未来を切り拓いていきます」と述べています。「私たちは顧客満足を最優先に考え、世界中のパートナーとより大きな相乗効果を生み出し、AIの次世代をリードしていきます。」
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。