AI計算の主戦場が動く
Baiduが自前のAI計算基盤を一段引き上げる。 そんな空気がBaidu World 2025で濃くなった。
M100/M300という新チップの予告と、スーパーコンピューティング製品群、そして新しいマルチモーダル版Ernieが一枚の絵を描く。
これまで中国のAIはGPU依存が避けられなかった。
しかし調達難やコスト高は恒常化している。
“国産で回す”という現実解をどう具体化するか。
今回のBaiduの布陣は、その問いに応える輪郭を示した。
Baidu World 2025で見えた全体像
発表の核は、推論特化のM100(2026年予定)と、学習・推論の両対応M300(2027年予定)だ。
合わせて、クラスタ規模を前提にしたTianchi 256/512といったスーパーコンピューティング製品が示され、新Ernieのマルチモーダル版が披露された。
海外報道でも、Baiduが自社AIプロセッサを通じて中国内のAI計算基盤を強化する狙いが伝えられている。
参考:VOI: Baidu Launches New AI Processor。
また、クラウド側の受け皿も刷新が続く。
参考:日経XTech: 百度AIクラウドの刷新。
モデル面では、オープン化と軽量推論の潮流が強まる。
参考:XenoSpectrum: Ernie 4.5とErnie X1、Bloomberg: Ernieの無料提供、Zenn: Ernieオープンソース化の動き。
M100とM300—設計思想とねらい
M100は推論に最適化することで、実運用のボトルネックであるレイテンシとTCOを下げる狙いがある。
大規模LLMの混合精度や8/4bit量子化を想定し、メモリ帯域を活かし切る設計が想像される。
ソフト面ではPaddlePaddle起点の最適化グラフやコンパイラが鍵になるだろう。
M300は学習と推論の両刀で、クラスタ化を前提とした相互接続やモデル並列・テンソル並列の効率を重視するはずだ。
学習に耐えるスケーラビリティと、学習後の推論への転用容易性を一枚のアーキテクチャで両立する。
結果として、“学習はデータセンター、推論はエッジ〜クラウド”という役割分担が明快になる。
重要なのは、チップ単体ではなくシステムの完成度だ。
ネットワーク、メモリ階層、コンパイラ、ランタイムまで縦に統合できるかが、NVIDIA依存からの脱却を現実にする。
Tianchi 256/512—スパコン級の土台
Tianchi 256/512は名称が示す通り、数百ノード級のスパコンアプライアンスを意識した製品だ。
ジョブスケジューラ、チェックポイント、分散ストレージなど、生成AIの学習運用で必要な構成要素がパッケージ化されると、導入までの時間が短くなる。
また、通信ボトルネックの回避は学習効率を左右する。
もしTianchiが高帯域・低遅延の専用インターコネクトを備えるなら、MoE(Mixture of Experts)や分散Mixture並列のスケールが現実味を増す。
推論側でもトークン並列・KVキャッシュ最適化が組み合わされば、大規模多人数同時推論に強い。
ハードだけではない。
運用テンプレートや参照アーキテクチャが提供されると、企業のSRE/ MLOpsは初期からSLAを意識した設計に踏み出せる。
新Ernie—マルチモーダルとエージェント化の今
モデル側ではErnieのマルチモーダル版が軸になる。
テキスト×画像×音声の理解・生成に加え、ツール実行やエージェント連携が前提だ。
Baiduは無料提供やオープン化の動きも強めており、利用コスト低下と実装の民主化が同時に進む。
参考:Ernie 4.5 / Ernie X1、Bloomberg: Ernie無料化、Zenn: オープンソース化。
モデル×チップ×クラウドの三位一体は、“推論コスト1/10”を現実的なKPIに変える。
ここで効くのが量子化、蒸留、キャッシュ再利用だ。
モデル軽量化とM100の特性が噛み合えば、レイテンシは下げ、同時接続は上げるという二律背反を崩せる。
導入の道筋—企業はこう備える
2025〜2027年を見越した現実的なロードマップを描こう。
段階的に“今できること”を積み上げるのが最短だ。
- 現状把握:主要推論ワークロードのトークン生成速度、平均/尾部レイテンシ、コスト/1kトークンを計測し、SLOを定義。
- PoC設計:M100相当の推論最適HWでINT8/FP8/4bitの効果を比較。KVキャッシュのページング/圧縮も試す。
- 学習計画:M300期(2027年)を見据え、データカタログ化、RAG基盤、評価ルーブリックを先行整備。
- クラウド併用:需要変動に備え、ピークだけクラウドへ逃がすハイブリッド構成を標準に。
- MLOps:モデル/プロンプト/評価の3層でバージョニング。デプロイはカナリア+A/B。
- セキュリティ:データ境界、依存ライブラリ、サプライチェーンをSBOMで可視化。
この一連は、M100/M300やTianchiの到来を“さっと差し替えられる土壌”に変える。
先に運用を作るのが勝ち筋だ。
エコシステムと互換性—CUDAの外で戦う条件
鍵はソフトウェア互換だ。
BaiduのPaddlePaddleは強みだが、PyTorch/TensorFlowとの距離感や、ONNX/TVM経由の最適化パスが実務では効く。
カーネル最適化、グラフ融合、カスタムオペの整備度が、“移植コスト”を決定する。
中国メーカーの台頭でNVIDIA一強の緩みも指摘される。
参考:36Kr Japan: 中国半導体メーカーの挑戦、日経: 脱NVIDIA 自給率70%超へ。
ただしドライバ、ライブラリ、ツールチェーンの総合力は、依然としてハード以上に難題だ。
“APIは合うが性能が出ない”を避けるには、プロファイリングの可視化と自動チューニングが欠かせない。
ベンダーのベンチ以外の実測を重視しよう。
地政学とサプライチェーン—冷静な前提条件
AIチップは製造プロセス、IP、装置が絡む総合産業だ。
地政学リスクは仕様以上に実効性能を左右する。
中国勢の展示・実機デモは増えているが、量産の歩留まり、輸出規制、輸送・保守まで含めた運用の安定度が肝心だ。
参考:日経XTech: 中国が進めるAIインフラ国産化(WAIC 2025)。
“使い続けられるか”という観点で、冗長化、セカンドソース、マルチクラウドは必須の保険になる。
まとめ—中国製AI計算基盤の到達点
M100(推論・2026年)、M300(学習/推論・2027年)、Tianchi 256/512、そしてマルチモーダル版Ernie。
Baiduはチップ×クラウド×モデルの面で“自前で回る”絵を描いた。
短期は推論コストの劇的圧縮、中期は学習の国産シフトが焦点だ。
企業は今から運用基盤と評価体制を整え、ハードの選択肢を増やしておく。
それが、2026〜2027年に最短で競争優位に変える道になる。

コメント