嘘を許さないAI体験へ
生成AIは速く、器用で、しかし時にもっともらしい嘘をつきます。企業導入のボトルネックは、この“ハルシネーション”の管理でした。
Phingeが掲げるNetverseは、アプリ不要で使える“Verified AI platform”。出力の根拠提示と自動検証をプロダクトに埋め込み、信頼できるAI体験を標準化することを目的にβ提供を開始しました。
本記事では、ハルシネーション対策をどう製品に落とし込むかを、SaaS設計の視点で解像度高く分解します。関連する先行事例や研究も参照しつつ、実装の勘所をまとめます。
Netverseとは何か:Verified AIの設計原則
根拠・検証・統制を“仕様化”する
Verified AIは“たまたま正しい”ではなく“検証に耐える”を指します。Netverseが設計で重視するのは、出力の一歩手前にあるデータ流通と評価の制御です。
- 根拠提示(Citations): 生成結果の各主張を、出典ドキュメントのスニペットとともにリンクで提示。
- 自動検証(Verification): 回答とソース文の意味整合性をモデルで照合し、信頼スコアを算出。
- 統制(Guardrails): ポリシー違反やPII検知で“回答しない”を許可。安全性と事実性の優先順位を設定。
これらをUIの“機能”ではなく、API/ワークフローに組み込み運用で回せる点がSaaSとしての肝になります。
使い方:β版で試すオンボーディングの流れ
最短で“根拠つき回答”に到達する
- 1. データ接続: Confluence、Google Drive、Box、社内検索などをコネクト。メタデータとアクセス権も同期。
- 2. インデックス/RAG設定: 埋め込みモデルと再ランキングを選択。チャンク長、重複抑制、引用件数をチューニング。
- 3. ガードレール定義: 禁則語、開示NG領域、個人情報検出、ジョブ関数別ポリシーを設定。
- 4. 検証テンプレート: “出力→主張抽出→根拠検索→整合性判定→スコア化”の検証パイプラインを有効化。
- 5. 評価/Eval: サンプル質問セットを流し、正確性、引用カバレッジ、棄却率をダッシュボードで確認。
ブラウザからアクセスするだけで試せるため、アプリ配布やMDM設定を待たずにPoCが回せます。現場でのABテストがすぐに始められるのはβ版の強みです。
ハルシネーション対策を“製品”にする分解
1. 引用/証拠提示
- 主張単位のハイライト: 回答文の文ごとに対応するソースを紐付け、マウスオーバーで根拠を展開。
- 引用カバレッジ指標: “要旨の何%が一次情報に裏づくか”をスコア化。
- 出典の信頼度: 社内公式、法規、外部一次資料などソースの格付けで重み付け。
2. ガードレール(安全・法令・ブランド)
- Abstain by design: 不確実なときに“わからない”を許可。しきい値は業務リスクに応じて調整。
- PII/機密検知: 取り扱い禁止情報を事前遮断。要約や翻訳でもトラッキング。
- ドメインルール: 金融・医療・法務での禁句リストや開示範囲をテンプレート化。
3. 評価指標(Evals)
- Factuality@K: 回答の事実整合率。RAGのTop-K根拠との整合性で測定。
- Citation Coverage: 重要文の引用率、ソース多様性。
- Abstention Rate: “回答拒否”でリスクを避けた割合。過少/過剰棄却の監視が重要。
- Safety Violations: ガードレール逸脱の検出率・誤検出率。
プロダクトは“ダッシュボードで継続的に見える化”して現場に還流させること。導入初期より、運用で強くなります。
アーキテクチャの要点:RAGを“検証”で補完する
Retrieval→Reasoning→Verificationの3層
- Retrieval: 再ランキングでノイズ削減、埋め込みのドメイン再学習、バージョン管理。
- Reasoning: Chain of Thoughtより“Chain of Evidence”。推論に根拠IDを持たせる。
- Verification: 自動判定(文意整合/矛盾検知)→低スコアは人手レビューにエスカレーション。
加えて、C2PA等のコンテンツクレデンシャルで生成物の出自を刻むと、社外共有まで“検証可能性”がつながります。
他社動向と最新知見:検証の“相場観”
国内外でも“検証可能なAI”への流れは加速しています。大手の対策は、RAGの強化に加えて“出力後検査”を標準化する方向です。
- NECが生成AIのハルシネーション対策機能を発表。要約やRAGで根拠提示と自動判定を提供。
- GoogleのDataGemmaは統計データ基盤に接続して事実性を高める取り組みが報じられました(Yahoo!ニュース)。
「生成AIの出力に紛れ込んでしまうハルシネーションを検出し、ユーザに確認を促す機能です。」
出典:NEC 研究開発 特集
「ハルシネーションをなくすのは難しい。」
出典:日経xTECH
つまり“ゼロにする”ではなく“検証を標準装備にする”。Netverseのアプローチはこの潮流と整合的です。
運用設計:SaaSとしてのガバナンスとUX
誰が、何を、どこまで見られるか
- 権限境界: データソースACLを反映し、ユーザーごとに引用可能なドキュメントを制限。
- 監査証跡: “質問→取得ドキュメント→出力→検証スコア”の完全トレースを保存。
- SLAsとSLOs: 応答時間だけでなく“検証完了までのレイテンシ”“引用率”をSLO化。
- UXの肝: 回答本文の読みやすさを損なわず、根拠はワンタップで展開。モバイル最適化。
エンタープライズで揉まれるのはUXより“権限・監査”。初期からプロダクト仕様に織り込むとスムーズです。
よくある落とし穴と回避策
- 引用はあるが役に立たない: PDF表紙や目次ばかり引く現象。再ランキングとチャンク設計で改善。
- 過剰棄却で使えない: 安全しきい値高すぎ問題。優先ユースケースで段階的に緩和。
- 評価が一過性: 導入時だけ評価セットを流す。継続的Evalsとデータドリフト監視を標準運用へ。
“完璧なモデル選び”より“継続的な検証運用”の方が効果は大きい。ダッシュボードは日々見るものに。
参考リソース
- NEC「生成AIがつくり出す誤情報のリスクを検知」: https://jpn.nec.com/rd/technologies/202506/index.html
- ZDNET Japan「NEC、生成AIのハルシネーション対策機能」: https://japan.zdnet.com/article/35224021/
- 日経xTECH 特集: https://xtech.nikkei.com/atcl/nxt/column/18/02760/022900003/
- Yahoo!ニュース(DataGemma/事実性向上): https://news.yahoo.co.jp/articles/cddf03d6ec9f78757f2184afcf2d8ec5089c177e
注:本稿執筆時点でNetverseの一般公開情報は限定的です。プロダクトの方向性は公開資料と業界動向からの推定を含みます。
まとめ:検証を“体験の標準”に
ハルシネーションは消せません。ですが、根拠提示と自動検証、そして賢い棄却があれば、事実性は運用で高められます。
Netverseの価値は、検証を“後付け”ではなく“仕様”にする点。SaaSの文法でガードレールとエバリュエーションを回すことが、信頼できるAIの最短距離です。
まずはβで“根拠つき回答”の体験差を見てください。部署横断でのPoCと継続的Evalsが、あなたの現場での生成AIの実力を底上げします。

コメント