見出しは謝罪から始まった:破産申立書に「存在しない引用」
米大手のGordon Rees Scully Mansukhani(Gordon Rees)が、破産申立書にAI生成の誤った引用を含めたとして謝罪した。同事務所は、誤引用の経緯を調査し、訂正の提出と再発防止策の整備に着手したと説明している。
問題視されたのは、AIが作成した下書きを十分に検証しないまま、実在しない判例や不正確な脚注が書面に混入した点だ。法廷での引用の厳格さを考えれば、信用失墜は小さくない。
同事務所は、AIリスク教育の強化、出典検証の二重チェック、ログの保存などを柱とする対応を公表。読者が気になるのは、「なぜ起きたのか」「どう防ぐのか」だろう。以下、その核心だけを整理していく。
法廷と生成AI:過去の教訓がすでにあった
生成AIの「もっともらしい嘘」は、法廷でも繰り返し問題化してきた。2023年には、米国で弁護士がAIに書かせた書面に実在しない判例が含まれ、厳しい批判と制裁の可能性が報じられている。
「弁護士が対話型AI『ChatGPT』を用いて民事裁判の資料を作成したところ、虚偽の内容が多数含まれていたことがわかった。」
出典:朝日新聞デジタル
近年の分析は、現場の焦りを代弁する。
「言葉のプロである弁護士たちが、相次いでAIの虚偽情報に騙され、裁判所の怒りを買う事例が相次いでいる。」
出典:MIT Technology Review(日本版)
これらの事件は、AIの利便性と法的厳密性のギャップを改めて浮き彫りにした。
Gordon Reesの初動対応:教育・検証・ログの三本柱
同事務所は謝罪に加え、AIリスク教育の徹底とチェック体制の強化を表明した。ここで重要なのは、単なる利用禁止ではなく、「安全に使う力」を組織として鍛える方向へ舵を切った点だ。
- 教育:AIの限界(ハルシネーション、出典の擬似生成)を前提にした研修を実施。検証の基本動作を標準化。
- 検証:全引用に対する二重チェックを必須化。一次資料(判例DB・官報・裁判所サイト)での照合を義務付け。
- ログ:AIプロンプトと出力、採否の理由を監査可能な形で保存。事後検証と是正を容易にする。
これらは「生成AI=禁止」ではなく「生成AI=監督下で活用」へ進む現実的な設計だ。誤引用は痛手だが、教訓を制度化できるかが試される。
実務者のための安全なAIワークフロー
現場ですぐに効くのは、ワークフローの分割と検証ポイントの明確化だ。以下は、法務・訴訟書面のための人間主導フローの最小構成。
- 要約フェーズ:AIは「下書き要約」に限定。法的主張や結論は人が作る。
- 出典フェーズ:判例・法令はLexis/Westlaw/裁判所サイトで一次資料検索。AIの出典は参照のヒントに留める。
- 照合フェーズ:引用文言は原文と逐語照合。判旨の射程や前提事実も確認。
- 監査フェーズ:フットノートと参考文献だけを抜き出し、第三者レビューでリンク切れ・誤記をチェック。
- 記録フェーズ:採否判断、否決理由、代替出典を監査ログに保存。
加えて、RAG(検索拡張生成)や出典強制プロンプトの導入も有効だが、「出典ラベル=真正」ではない点に留意。ラベルは必ず一次資料で裏取りする。
なぜ誤引用が起きるのか:技術的メカニズムを知る
生成AIは、確率的に「それらしい」文字列を続ける。法情報のように命名規則がパターン化された領域では、実在に似た「合成的な判例名」が作られやすい。これがハルシネーション(幻覚)だ。
さらに、長文で複数の出典を並列させるほど、引用の混線・年代の取り違え・管轄の誤適用が起こる。AIは「根拠の階層性」を内在的に表現しないため、射程の違う判旨を無造作に接続してしまう。
要するに、AIは「言語の流暢さ」>「法的妥当性」に最適化されている。法的妥当性を担保するのは、今も、そしてこれからも人間の検証だ。
企業法務・依頼者の視点:契約とガバナンスで担保する
外部事務所やALSPを使う企業は、契約とプロセスで品質を確保したい。次のような最小限の条項・運用を検討しよう。
- 人間の最終責任条項:AI利用の有無に関わらず、成果物の正確性は受任者が負う。
- 出典検証条項:重要主張の根拠は一次資料で照合。監査ログの提示義務。
- 開示条項:生成AIを用いた場合は用途・範囲・モデル種別を開示。
- 機密管理:機密データは隔離環境かオンプレ/専用テナントで処理。
- インシデント対応:誤引用や誤情報が判明した場合の訂正・報告・是正のSLA。
社内では、AI利用ポリシーとレビュー責任マトリクスを明文化し、「人がAIを使う」のではなく「人がAIを監督する」文化へ移行する。
参考と読み解き:繰り返されてきた警鐘
今回の件は孤立事象ではない。過去の出来事と分析は、「チェックなきAI活用は必ず破綻する」という同じメッセージを語る。
- 弁護士がChatGPTを使ったら「偽の判例」が裁判資料に(朝日新聞)
- ChatGPTで資料作成、実在しない判例引用(日本経済新聞)
- 生成AIに騙される弁護士がいまだに相次ぐ(JBpress)
- AI幻覚、法廷にも(MIT Technology Review)
事例は増えている。だが同時に、再発防止の型も見えてきた。重要なのは、「使わない」か「丸投げする」かの二元論から抜け出すことだ。
まとめ:AIは味方、ただし監督付きで
Gordon Reesの謝罪は、不安の表明ではなく成熟の宣言と受け止めたい。AIは強力だが、強力だからこそ「検証」と「記録」と「責任」の枠組みが要る。
今日からできる一歩は小さい。引用は必ず一次資料で裏を取る。フットノートは第三者が見る。AIの出力と判断をログに残す。それだけで、誤引用の大半は止められる。
AIは敵ではない。だが、監督なきAIは法廷の敵だ。私たちの側に引き寄せるのは、現場の手順と文化である。

コメント