生成AIは「使えるか」より「どこで使えるか」の時代へ
Goldman Sachsが香港の従業員に対し、Anthropicの生成AIモデル「Claude」の利用を制限したと報じられました。
一見すると、特定ツールの社内アクセスを止めただけのニュースに見えます。けれど実際には、生成AIの導入が次の段階に入ったことを示す、かなり象徴的な出来事です。
これまで企業のAI活用では、情報漏えいを防ぐ、プロンプトを管理する、社内データを学習に使わせない、といった論点が中心でした。
しかし今回の件では、そこに地政学リスク、契約条件、サービス提供地域という別のレイヤーが重なっています。
つまり、グローバル企業にとって生成AIは「便利だから全社展開」では済まなくなっています。国や地域ごとに、使えるモデル、使えないモデル、使わせるべきでないモデルを切り分ける必要が出てきたのです。
報道された内容:香港ではClaudeにアクセスできなくなった
複数の報道によると、Goldman Sachsの香港在勤スタッフは、社内AIプラットフォーム経由でも直接アクセスでも、Claudeを利用できなくなったとされています。
一方で、OpenAIのChatGPTやGoogleのGeminiといった他のAIモデルは、引き続き利用できると報じられています。ここが重要です。
もし単なる「生成AIの全面禁止」であれば、すべてのモデルが対象になるはずです。今回の焦点は、Claudeという特定のモデル、そして香港という特定地域にあります。
Reuters系報道は、Goldman Sachsが香港のバンカーからAnthropicのClaudeへのアクセスを取り除いたと伝えています。
出典:Yahoo Finance / Reuters
Bloombergも、香港にいるスタッフがClaudeへアクセスできなくなり、他の国や地域のスタッフでも香港滞在中は利用できないと報じています。
Bloombergは、Claudeの制限は香港に限定した動きで、香港滞在中の他地域スタッフにも影響すると報じています。
出典:Bloomberg
この点から見ると、Goldman Sachsは「社員の所属」だけでなく、「利用している場所」も含めてAIアクセスを制御している可能性があります。
なぜClaudeだけが制限対象になったのか
今回のポイントは、Claudeの性能や安全性が低いから制限された、という話ではありません。
むしろClaudeは、長文処理やコード生成、文書分析に強いモデルとして、金融・法務・開発現場で高く評価されています。だからこそ、Goldman Sachsのような金融機関でも社内AI基盤の一部として使われていたと考えられます。
では、なぜ香港で制限されたのか。
報道では、Goldman SachsがAnthropicとの契約条件を精査し、香港における利用範囲を厳格に解釈したことが背景にあるとされています。また、Anthropic側の公式サポート地域に香港が含まれていない点も関連していると見られます。
DigitalTodayは、Goldman SachsがAnthropicと協議したうえで契約を厳格に解釈し、香港従業員はAnthropic製品を使うべきではないと判断したと報じています。
Goldman SachsはAnthropicとの契約を厳格に解釈し、香港の従業員はAnthropicの製品を利用すべきではないと判断したと報じられています。
出典:DigitalToday
Anthropicのサポート対象国・地域については、同社のヘルプページでも確認できます。企業が導入する場合、こうした「利用可能地域」の記載は、単なる案内ではなく契約運用上の重要な前提になります。
背景にあるのは米中間の地政学リスク
香港は国際金融都市でありながら、中国の管轄下にある地域でもあります。米国企業がAIモデルを提供する際、香港をどう扱うかは非常に繊細な問題です。
生成AIは単なる業務ツールではありません。大量の文書を処理し、コードを書き、社内ナレッジを要約し、意思決定の材料を作ります。
金融機関で使われる場合、扱う情報は顧客情報、投資判断、M&A資料、市場分析、内部システムに関わる内容にまで及ぶ可能性があります。
そのため、AIベンダーと利用企業の双方にとって、どの地域で、どの法人が、どのデータを、どのモデルに渡すのかは重大なリスク管理項目です。
特に米中間では、半導体、クラウド、AIモデル、データ移転をめぐる規制や政策が揺れ続けています。今日問題なく使えても、明日には契約やポリシーの再解釈が必要になることもあります。
Goldman Sachsの判断は、攻めのAI活用を止めたというより、不確実性の高い地域では先にアクセスを絞るという防御的なガバナンスに見えます。
金融機関にとってAIガバナンスは「細かすぎる」くらいでちょうどいい
銀行や証券会社は、もともとテクノロジー利用に厳しい業界です。チャットツール、メール、ファイル共有、クラウドストレージでさえ、監査ログや保存期間、アクセス権限が細かく管理されます。
生成AIでは、さらに管理すべき項目が増えます。
- どのモデルを使ってよいか
- どの部署が使ってよいか
- どの国・地域から使ってよいか
- 入力してよい情報と禁止情報は何か
- 出力結果を顧客向け資料に使えるか
- ログを誰が確認し、どれくらい保存するか
今回のように、同じ会社の社員でも「香港にいる間はClaudeを使えない」という運用は、現場から見ると不便です。
しかし、金融機関では不便さよりも、規制違反や契約違反、顧客データ流出のリスクを避けることが優先されます。
特に大手金融機関は、ひとつの判断ミスが世界中の当局対応や訴訟、ブランド毀損につながります。AIの利便性が高いほど、利用範囲を曖昧にしたまま広げることは危険です。
Goldman Sachsの対応は、今後ほかのグローバル企業にも広がる可能性があります。
日本企業にも関係する「地域別AI統制」
このニュースは、香港やGoldman Sachsだけの話ではありません。日本企業にもかなり関係があります。
たとえば、海外拠点を持つメーカー、金融機関、商社、SaaS企業、ゲーム会社、コンサルティング会社などは、同じAIツールを全社で使わせる前に、地域別の利用可否を確認する必要があります。
日本本社では問題なく使えるAIでも、中国、香港、シンガポール、EU、米国では契約条件やデータ保護規制が異なることがあります。
特に注意したいのは、次のようなケースです。
- 海外子会社にも同じAIアカウントを配布している
- 社内ポータルから複数モデルを選べるようにしている
- 営業資料や顧客情報をAIに要約させている
- 開発チームがコード生成AIを国境をまたいで使っている
- ベンダー契約を本社だけで確認し、現地法人の利用条件を見ていない
生成AIはクラウドサービスなので、つい「ログインできるなら使ってよい」と考えがちです。
しかし企業利用では、ログイン可能であることと、契約上・規制上・社内ルール上使ってよいことは別です。
今回の件は、日本企業にとっても「AIツールの棚卸し」を促すサインだと言えます。
現場が混乱しないために決めておきたいこと
AI利用を制限するとき、企業が失敗しやすいのは、単にアクセスを止めて終わることです。
現場からすると、昨日まで使えていたツールが突然使えなくなると、業務効率が落ちます。代替手段がなければ、個人アカウントや未承認ツールに流れるリスクもあります。
そのため、地域別にAI利用を管理するなら、次のような設計が必要です。
- 承認済みAIリストを国・地域ごとに作る
- 禁止理由を簡潔に説明する
- 代替モデルや代替ワークフローを用意する
- 入力してよいデータ分類を明確にする
- 出張時の利用ルールも決める
- 契約更新時にサポート地域を再確認する
特に見落とされがちなのが、出張時のルールです。社員の所属国では利用可能でも、滞在先の地域では利用が制限される場合があります。
今回の報道でも、他地域のスタッフが香港にいる間はClaudeにアクセスできないとされています。これはまさに「人」ではなく「場所」で制御する運用です。
生成AIの社内展開では、モデル選定だけでなく、ID管理、IP制御、データ分類、監査ログ、契約レビューを一体で考える必要があります。
まとめ:生成AIの本格導入はガバナンス競争になる
Goldman Sachsによる香港社員のClaude利用制限は、生成AIの失速を示すニュースではありません。
むしろ、大企業がAIを本気で業務に組み込むほど、利用ルールが細かくなっていくことを示しています。
これからの企業AI活用では、単に「どのモデルが賢いか」だけでは不十分です。
どの地域で使えるのか。どの契約条件に縛られるのか。どのデータを入力できるのか。現地規制や地政学リスクにどう対応するのか。
こうした問いに答えられる企業ほど、安全にAIを使い倒せます。
生成AIは、導入すれば終わりのツールではありません。使う場所、使う人、使うデータ、使う目的を管理してこそ、ビジネスの武器になります。
今回のGoldman Sachsの判断は、その現実をかなりはっきり見せてくれた事例です。
コメント