MENU

Hammerspace、SC25で最新AIデータプラットフォームを披露へ

目次

HPCとAIが交差する現場で、データ供給が主役になる

AI時代のボトルネックは計算ではなく、データの「運び方」です。
とくにGPUが密集する大規模環境では、マルチサイトのデータを無停止で統合し、必要なときに必要なノードへ高速に届ける仕組みが欠かせません。
SC25が開催される米セントルイスは、そんな“データ供給”の議論が最も熱を帯びる場所になります。

11月開催のSC25は、HPCとAIの最新潮流を一気に俯瞰できる年次イベントです。
NVIDIAをはじめエコシステム各社が勢揃いし、GPUクラウド、ネットワーキング、量子なども含めた展示とセッションが行われます。
イベントの基本情報はこちらがわかりやすいです:NVIDIA at Supercomputing 2025 (SC25)

“Join NVIDIA at SC25, Nov 16–21, St. Louis, MO, Explore AI and HPC innovation.”

NVIDIA

Hammerspaceという選択肢:広域・マルチクラウド時代の“データ面”

Hammerspaceは、サイロ化した非構造化データを統合し、拠点やクラウドをまたいで“どこからでも同じ名前空間で”扱えるようにするデータプラットフォームです。
特徴は、メタデータ中心のアーキテクチャと、標準ベースの並列ファイルシステムで、GPUワークロードに必要な高IOを安定して供給できる点。
日本ではコアマイクロシステムズとのパートナーシップも公表され、導入検討の土台は整いつつあります。

参考:
Supermicro × Hammerspace リファレンス
コアマイクロシステムズの発表
後者は日本語での背景理解に役立ちます。
HPCやHPDA、生成AI基盤のような大規模データが主役の現場で、運用と性能を両立させる狙いが明確です。

“The Hammerspace Data Platform delivers unmatched GPU I/O speed, scales performance linearly to thousands of nodes, and makes all unstructured data visible and accessible everywhere with a global namespace that spans sites and clouds.”

Supermicro

SC25で注目したい展示ポイントと文脈

SC25では、GPUクラスターと広帯域ストレージ、DPU/スマートNIC、そしてソフトウェア定義のデータ面が「一体として」語られます。
Hammerspaceが担うのは、この中で“データを見える化し、必要な場所に即時供給する”領域。
マルチサイトに散らばるペタバイト級データを、GPUの学習やRAG検索に遅延なく届ける仕組みは、まさに展示会場の関心事です。

会場ではサーバーベンダー各社が次世代GPUや冷却技術、DCブロックなどを披露予定で、データ面の最適化と一緒に比較検討が進みます。
たとえばSupermicroはSC25に向けたHPC/AIインフラの展示をアナウンスしています(例:福井新聞ONLINE掲載の共同通信PR)。
この文脈の中で、Hammerspaceのグローバル名前空間と並列I/Oは、GPU密度の高いラック構成と相性がよいといえるでしょう。

はじめ方ガイド:PoCから本番導入までの勘所

小さく始めて、大きく育てる

広域データ基盤は、最初の設計が肝心です。
PoCでは“GPUジョブの実行中にデータが詰まらないか”に絞って検証すると、短期間でも価値が見えやすくなります。
現場オペレーションの摩擦を最小化しながら、本番に滑らかに移行するのが理想です。

  • データ選定:学習・推論で実際に使うホットデータセットを優先
  • I/Oプロファイリング:GPUあたりのスループットとレイテンシの目標値を明確化
  • 名前空間設計:既存パスと衝突しないグローバル命名規則を定義
  • 移行計画:段階的なカットオーバーとロールバック手順を用意

技術の芯:グローバル名前空間とメタデータ制御面、並列I/O

メタデータドリブンで“見える化”する

Hammerspaceの強みは、メタデータ制御面で全拠点の非構造化データを一望し、ポリシーで自動オーケストレーションできる点にあります。
このメタデータ層が、ユーザーやアプリからは“単一のファイルシステム”に見える体験を生み、データの場所を意識させません。
結果として、RAGやファインチューニングの前処理もシンプルになります。

標準ベースの並列ファイルシステム

標準プロトコルを用いた並列I/Oにより、数千ノード規模でも直線的に性能を伸ばせる設計が示されています。
SupermicroのPetascale All-FlashやJBOF、NVIDIA BlueField-3 DPUと組み合わせることで、計算とデータ面のボトルネックを同時に外しやすくなります(参考)。
RDMAやQoSのベストプラクティスを押さえると、GPUの稼働率が安定します。

マルチサイト×GPU時代の最適化:距離と帯域を味方に

生成AIでは、学習・評価・推論のワークロードが場所や時間で揺れます。
グローバル名前空間で“どこからでも同じように”アクセスできても、WANの遅延や帯域は無視できません。
そこで、キャッシュ戦略やポリシーベースの配置制御、段階的なデータの温度管理が効いてきます。

日本での取り組みは、導入後の運用支援やストレージ統合の観点でも参考になります。
コアマイクロシステムズは、Hammerspaceとの提携を通じてHPDA/AI/HPC向けの統合データレイクを推進中です(発表)。
マルチサイトの現実解として、拠点間転送の最適化と、データガバナンスの共存を同時に実現していく姿勢が見えます。

エコシステムの視点:Supermicro×NVIDIAとの相性

SC25では、GPUサーバー、液冷、DPU、そしてデータ面の“実機連携”が見ものです。
Supermicroの参照構成は、Hammerspaceとのスケールアウト連携を前提に、Exabyte級・数十億ファイル規模にも触れています(参考)。
会場の最新GPUプラットフォームと合わせて見ると、実運用に近い目線での評価がしやすくなります。

また、GPU I/Oの“谷”をいかになくすかは、あらゆるベンダーが共通して語るテーマです。
ネットワーク設計、ジョブスケジューラ、データ面の三位一体で最適化することで、AIパイプライン全体の効率が一段引き上がります。

導入の落とし穴と回避策

広域データの単一化は魅力的ですが、運用での落とし穴もあります。
ネームスペースの“暗黙ルール”、小さなファイルの嵐、メタデータスパイクなど、GPUジョブと相互作用する要因は地味に効きます。
事前にチェックリスト化しておくと安全です。

  • 命名衝突:既存ワークロードとのパス重複を検出し、移行前にフェンス
  • スモールファイル対策:バルク化・アーカイブ化・メタデータキャッシュを計画
  • QoS/隔離:学習と推論、ETLを帯域・IOPSでロジカルに分離
  • 観測性:GPU利用率とI/Oの相関を常時可視化し、ボトルネックを即時特定

まとめ:AIの速度は“データの流れ”で決まる

SC25は、AIコンピューティングの進化を“データ供給”という視点で再定義する場になりそうです。
Hammerspaceのようなグローバルデータプラットフォームは、マルチサイト・GPU密集環境でのI/O最適化を現実解に変えていきます。

まずはPoCでデータとGPUの呼吸を合わせること。
そのうえで、エコシステム全体との連携を視野に、拡張できる設計を選びましょう。
会期中は、関連リファレンスや展示を横断的に見比べると、本番運用の解像度が一気に上がります。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次