専有環境で動く生成AI、その本命が来た
企業の“中で育ち、現場で回る”生成AIをどう作るか。
富士通の答えが、オンプレミス対応の垂直統合パッケージ「Fujitsu Kozuchi Enterprise AI Factory」だ。
GPUサーバー、LLM、内製型ファインチューニング、量子化、AIエージェント開発までをひと箱に。
機密データを外へ出さず、企画から運用改善までのサイクルを企業内で自律的に回せる構成になっている。
先行トライアルは2026年2月から順次、正式提供は同年7月予定。
日本と欧州から展開が始まる。
Kozuchi Enterprise AI Factoryの全体像
垂直統合アプライアンスの核
本システムは、エフサステクノロジーズのGPU搭載PCサーバー「PRIMERGY」を基盤とし、LLM「Takane」、内製型ファインチューニング支援、モデル量子化、AIアプリ/エージェント開発ツールを一体提供する。
運用面では、脆弱性スキャナーやガードレールといったAIトラスト機能も搭載。
「Private AI Platform on PRIMERGY」と「Private GPT」上で提供され、導入や初期運用のハードルを大きく下げる。
「Fujitsu Kozuchi Enterprise AI Factory」は、Private AI Platform on PRIMERGYおよびPrivate GPT上で提供され…これらをワンパッケージで提供することで、初期導入のハードルを低減し、高度な専門知識がなくても迅速利用を開始できます。
この“工場(Factory)”コンセプトは、モデル開発→運用→追加学習→再展開の循環を高速化する狙い。
RAGやエージェントの構成要素も用意され、現場主導のローコード開発を後押しする。
なぜオンプレか:ソブリン性とセキュリティの要請
データを出さずに磨き続ける
金融、製造、公共などでは、機密データの外部持ち出しリスクが生成AI活用の壁になってきた。
専有環境でLLMを運用し、業務に特化した追加学習を回せることは、監査やレギュレーションの観点でも強い。
富士通は「ソブリン性の高いAI」を掲げ、インフラから開発・運用・改善までを自社内で完結できる設計を打ち出す。
MCP(Model Context Protocol)やエージェント間通信対応により、既存システムやデータ連携の自由度も確保する。
正式提供は2026年7月を見込み、先行トライアルでは内製型ファインチューニングや量子化などの一部機能を利用可能。
内製型ファインチューニングと量子化の実力
“現場精度”を引き上げる仕組み
中核LLMのTakaneは日本語と画像解析に強みを持つ。
ここに、自社データで内製し続けるファインチューニング機能が加わることで、対話精度や手順生成の適合率を徐々に押し上げられる。
さらに量子化でモデルを軽量化し、メモリ消費を抑えつつ推論を高速化。
限られたオンプレ資源でも、複数エージェントやユースケースを同時に回しやすくなる。
量子化によりメモリ消費を大幅に削減しつつ精度を維持できる技術を搭載。
重要なのは、これらを運用のサイクルに自然に組み込める点。
モデル改善のたびに環境を張り替えるのではなく、Factoryに組み込まれた手順で一貫して回せる。
エージェント開発と連携:現場主導を加速
ローコード×MCPでスピード実装
ローコード/ノーコードのAIエージェントフレームワークにより、業務チームが主体となってPoCから現場実装までを短期間で推進できる。
MCPやエージェント間通信に対応し、複数エージェントが役割分担して協調動作する構成も取りやすい。
既存の業務システムやデータレイクとの連携も視野に、プロンプト設計からツール呼び出し、権限管理までを実務に寄せて統合。
富士通の独自技術をエージェント化して順次提供するロードマップも示されている。
MCPやエージェント間通信に対応し、既存システム・データと連携、複数エージェントが協調動作して高度なAI活用を実現。
導入ステップとユースケース設計
トライアルから本番運用へ
おすすめの進め方は、先行トライアルで対象業務と精度指標(業務KPI)を絞り、内製型FTと量子化の両輪で“最小のGPUで最大の効果”を狙うこと。
モデル更新の頻度、評価手順、ガードレールの閾値を初期に固めると安定しやすい。
- ナレッジ検索/RAG:規程・手順・設計書の準リアルタイム活用
- 問い合わせ自動応答:製造・金融の専門用語に強い対話
- 文書生成・要約:議事録、報告書、検査記録の自動化
- エージェント協調:見積・調達・在庫の横断最適化
オンプレであっても、スケール設計とモデル運用のSRE化を意識すれば多拠点展開は可能。
将来の小規模エッジAIやフィジカルAIへの展開も見据えた拡張性がポイントになる。
競合環境との違いと導入判断のポイント
“閉じた安心”と“速い改善”の両立
多くの企業はクラウドの利便性と、専有環境の主権性の間で揺れてきた。
Enterprise AI Factoryは、自社内完結のガバナンスと垂直統合の導入速度で、現場価値の立ち上がりを加速する設計だ。
- 強み:データ主権/法令対応、内製FTの継続性、量子化によるコスト最適化、エージェント協調
- 留意:GPU計画と消費電力、MLOps/評価体制の内製、クラウド連携の役割整理
- 相性が良い組織:機密要件が厳しい業種、現場主導で改善を回せる現場力のある企業
判断軸はシンプルに、「社外に出せないデータで差を作るか」と「改善サイクルを何日で回すか」。
Factoryの設計は、この2点を最短距離で満たすためにある。
提供スケジュールと入手先情報
いま動き出すタイミング
先行トライアルは2026年2月開始、正式提供は2026年7月が見込まれている。
初期は内製型FTや量子化などの一部機能から段階提供される見込みだ。
先行トライアルの受付を2月より開始、正式提供は7月予定。日本と欧州で順次展開。
詳細の全体像や技術背景は、以下の一次情報が参考になる。
導入検討の下調べとして、構成要素や運用イメージを押さえておきたい。
まとめ:閉じた環境で、開かれた改善を回す
Kozuchi Enterprise AI Factoryは、「専有環境でAIを育て続ける」という企業の本音に正面から応える。
データを出さず、エージェントまで一気通貫で実装し、内製で精度を磨く仕組みが揃った。
重要なのは、技術選定をゴールにしないこと。
評価→改善→再展開の速さこそが差になる。
まずは限定業務から回し、内製FTと量子化で“軽く速い改善”を体感する。
その先に、現場主導で広がるエージェント協調の景色が見えてくるはずだ。

コメント