“危険すぎるAI”は特別な存在ではなくなりつつある
生成AIの進化を追っていると、ここ数年は「文章がうまくなった」「コードが速く書けるようになった」という話題が中心でした。ところが今回のニュースは、少し温度感が違います。
Ars Technicaは、英国AI Security Instituteによる評価をもとに、OpenAIのGPT-5.5がAnthropicのサイバー特化的な高性能モデル「Claude Mythos Preview」と同程度のサイバー評価性能を示したと報じました。
OpenAI’s GPT-5.5 reached “a similar level of performance on our cyber evaluations” as Mythos Preview.
出典:Ars Technica
ポイントは、単に「GPT-5.5が強い」という話ではありません。Anthropicが一般公開を慎重に扱っているMythos Preview級の能力に、別の公開寄りモデルも近づいてきたことです。
つまり、サイバー領域におけるAIの能力向上は、特定企業の特殊モデルだけで起きている現象ではない可能性があります。ここから先は、モデル性能そのものよりも、誰に、どの範囲で、どんな監査のもと使わせるのかが本題になっていきます。
何が評価されたのか:CTFとマルチステップ攻撃シミュレーション
今回の評価で注目されたのは、サイバーセキュリティの実務に近いタスクです。英国AI Security Instituteは、リバースエンジニアリング、Web exploitation、暗号、バイナリ解析などを含むCTF形式の課題を使い、フロンティアAIモデルの能力を継続的に測っています。
報道によると、最難関のExpertレベルにおいてGPT-5.5は平均成功率71.4%を記録し、Claude Mythos Previewの68.6%と近い水準に入りました。数値だけ見るとGPT-5.5がわずかに上回っているようにも見えますが、誤差範囲を考えると「明確な勝敗」よりも「同じ能力帯に入った」と捉えるのが自然です。
さらに象徴的なのが「The Last Ones」と呼ばれるテストです。これは企業ネットワークへの侵入からデータ抽出までを模した、32段階の複雑なシミュレーションとされています。これまでのモデルでは完遂が難しかったタスクで、Mythos Previewに続きGPT-5.5もエンドツーエンドで到達したと報じられています。
- Expert級CTFでGPT-5.5はMythos Preview級のスコア
- 企業ネットワークを模した多段階シナリオでも高い進捗
- 単発回答ではなく、ツール利用と計画遂行の力が問われた
ここで重要なのは、AIが「知識を答える存在」から「目的達成のために手順を組み立てる存在」へ移っていることです。サイバー分野では、この差が非常に大きな意味を持ちます。
Mythos Previewが注目された理由
Claude Mythos Previewは、Anthropicがサイバーセキュリティ能力の高さを理由に一般公開を見送ったモデルとして話題になりました。防御目的のパートナーに限定して提供される枠組み「Project Glasswing」とともに紹介され、AI業界ではかなり強いインパクトを残しています。
Anthropicは、Mythos Previewが重要ソフトウェアの脆弱性発見や高度なセキュリティ分析で突出した力を示すと説明しています。一般ユーザーに広く開くのではなく、AWS、Apple、Google、Microsoft、NVIDIA、CrowdStrikeなどを含む限定的な組織と連携し、防御側での活用を優先する姿勢です。
これは慎重な判断です。サイバー能力は典型的なデュアルユース、つまり防御にも攻撃にも使える能力です。脆弱性を見つけて修正する力は、悪用すれば侵入口を見つける力にもなります。
そのためMythos Previewは、単なる高性能AIではなく、「公開すべきか、制限すべきか」というAIガバナンスの象徴として扱われてきました。そこにGPT-5.5が近い結果を出したことで、論点は一段階進みました。
GPT-5.5が突きつけた「公開モデルの境界線」
GPT-5.5の評価で一番考えさせられるのは、限定提供モデルと公開寄りモデルの境界が曖昧になってきた点です。Mythos Previewは危険性を考慮して提供範囲を絞っています。一方、GPT-5.5はChatGPTや開発者向け環境でより広く使われる実用モデルとして位置づけられています。
もちろん、広く使えるからといって、すべての危険な機能が無制限に開放されているわけではありません。OpenAIも高度なサイバー用途については「Trusted Access for Cyber」のような認証・限定アクセスの考え方を示しています。
ただし、モデルの基礎能力が上がるほど、ガードレールだけに頼る運用は難しくなります。ユーザーが複数のツール、外部環境、社内システムを接続すれば、AIは単なるチャット相手ではなく、実行権限を持つエージェントに近づきます。
ここで企業が見るべきなのは、モデル名の比較表だけではありません。
- AIにどの環境へアクセスさせるのか
- 実行コマンドや外部通信を誰が監査するのか
- 機密情報や認証情報をAIに渡していないか
- 防御目的の検証範囲が明確に定義されているか
AIの能力が高まるほど、リスクは「AIが何を知っているか」から「AIが何を実行できるか」に移ります。ここを見落とすと、便利な自動化がそのまま危険な自動化になってしまいます。
防御側にとっては大きなチャンスでもある
このニュースを読むと「AIがサイバー攻撃を自動化するのでは」と不安になりがちです。もちろん、その懸念は正しいです。ただ、同じ能力は防御側にとっても強力な武器になります。
たとえば、セキュリティチームはAIを使ってログの異常を整理し、脆弱性レポートの優先順位を付け、パッチ適用の影響範囲を調べられます。膨大なアラートに埋もれていた担当者にとって、AIは「もう一人の調査員」として機能する可能性があります。
現実的な使い方
- 自社システムの脆弱性情報を整理し、優先度を付ける
- インシデント対応時の時系列整理や報告書ドラフトを作る
- ソースコードレビューで危険なパターンを洗い出す
- 検知ルールや監査観点のたたき台を作成する
- セキュリティ教育用のシナリオを生成する
ただし、ここで大切なのは「許可された範囲で使う」ことです。社外システムへの無断テスト、第三者環境の調査、攻撃手順の実行は論外です。AIができるから実行してよい、という話にはなりません。
防御側で使う場合も、人間のレビュー、ログ保存、権限分離、テスト環境の限定が必要です。特に本番環境でAIエージェントに自動実行権限を与えるなら、承認フローは必須になります。
企業が今すぐ見直したいAIセキュリティ運用
GPT-5.5とMythos Previewの比較は、セキュリティ部門だけのニュースではありません。生成AIを業務導入している企業全体に関係します。なぜなら、AIのサイバー能力は単独で存在するのではなく、社内データ、開発環境、SaaS、クラウド権限とつながったときに現実のリスクになるからです。
まず見直したいのは、AI利用ルールの粒度です。「機密情報を入れないでください」だけでは、もう十分ではありません。AIにコードを読ませる、ログを解析させる、CI/CDの失敗を直させる、といった使い方では、どこまで許可するかを具体的に決める必要があります。
最低限チェックしたい項目
- AIに渡してよいデータと禁止データを分類しているか
- APIキー、Cookie、認証情報を入力しない仕組みがあるか
- AIエージェントの実行権限を最小化しているか
- 実行ログとプロンプトログを保存しているか
- 外部ツール連携の承認者を決めているか
- セキュリティ検証の対象範囲を文書化しているか
特に開発現場では、AIがリポジトリ、ターミナル、クラウド環境を横断して作業するケースが増えます。これは生産性の面では魅力的ですが、権限設計を誤ると影響範囲も広がります。
これからのAI導入は「便利だから使う」ではなく、権限・監査・責任範囲をセットで設計する段階に入っています。
業界の焦点は「性能競争」から「アクセス統制」へ
今回の報道が示しているのは、AIモデルの性能競争が新しい局面に入ったということです。これまでは「どのモデルが一番賢いか」が話題になりがちでした。しかしサイバー領域では、賢さそのものがリスクにもなります。
AnthropicはProject Glasswingで厳選された組織に限定提供する方向を取り、OpenAIはTrusted Access for Cyberのように認証済みの防御者へ広げる方向を示しています。どちらが正解かは、まだ結論が出ていません。
慎重に絞れば悪用リスクは下がりますが、防御側に十分な人数が行き渡らないかもしれません。広く提供すれば防御力は底上げできますが、悪用や漏えいの管理が難しくなります。
このバランスは、AI企業だけでなく、政府、重要インフラ企業、セキュリティベンダー、一般企業の情報システム部門まで巻き込むテーマになります。AIの公開方針は、もはやプロダクト戦略ではなく、社会インフラの設計に近づいています。
まとめ:GPT-5.5の評価は、AI活用のルール作りを急がせる
GPT-5.5がClaude Mythos Previewに匹敵するサイバー評価性能を示したというニュースは、AI業界にとって大きな節目です。高性能なサイバー能力は、限定モデルだけの問題ではなく、フロンティアAI全体に広がるトレンドになりつつあります。
一方で、過度に恐れるだけでは防御側が不利になります。AIは脆弱性管理、ログ分析、インシデント対応、コードレビューを大きく助ける可能性があります。重要なのは、能力を封じることではなく、正しい範囲で使えるように設計することです。
これから企業が取るべき姿勢は明確です。AIモデルの性能比較を追うだけでなく、アクセス権限、監査ログ、利用者認証、データ取り扱い、外部ツール連携のルールを整えることです。
GPT-5.5とMythos Previewのニュースは、生成AIが「便利な助手」から「強い実行力を持つシステム」へ変わったことを示しています。AIを使いこなす企業ほど、セキュリティとガバナンスを後回しにできない時代になりました。
参考リンク:Ars Technica、ITmedia AI+、GIGAZINE

コメント