AIがゼロデイを見つける時代に、企業はどう守るべきか

― Claude Mythosが示す、サイバーセキュリティの新しい前提 ―

サイバーセキュリティの世界で、いよいよ前提が変わり始めている。

これまで高度な脆弱性の発見やゼロデイ攻撃は、一部の国家機関、高度な攻撃者集団、または限られたトップレベルのセキュリティ研究者にしか扱えない領域だと考えられてきた。主要OSや主要ブラウザの内部構造を深く理解し、複数の脆弱性を組み合わせ、サンドボックスを突破し、実際に攻撃コードとして成立させるには、膨大な知識、経験、時間が必要だったからである。

しかし、AIの進化はこの前提を大きく揺さぶっている。

象徴的なのが、Anthropicの「Claude Mythos Preview」をめぐる一連の報道と発表である。AnthropicはProject Glasswingという取り組みを通じて、Claude Mythos Previewを重要ソフトウェアの防御に活用する方針を示している。公式ページでは、AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorgan Chase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networksなどがローンチパートナーとして挙げられており、重要インフラ級のソフトウェアを守るための防御的活用が強調されている。(Anthropic)

一方で、Claude Mythosは一般公開されていない。報道では、このモデルが主要OSや主要ブラウザに関わる深刻な脆弱性を発見できる能力を持ち、悪用された場合のリスクが極めて大きいとされている。The Guardianは、英国のAI Security Instituteによる評価として、Mythosが32ステップのサイバー攻撃シミュレーションを10回中3回完了したと報じている。(ザ・ガーディアン) また、Washington Postは、Mozillaのセキュリティ研究者がMythosを使ってFirefox上の深刻な欠陥を多数発見したと報じている。(The Washington Post)

もちろん、これらの情報は公開情報と報道に基づくものであり、企業がそのまま鵜呑みにするべきではない。しかし重要なのは、Claude Mythosという個別モデルの真偽や性能だけではない。より本質的なのは、「AIが高度なサイバー攻撃・防御の作業を人間の専門家に近い、あるいは一部では上回る速度で実行し始めている」という方向性である。

私は、これは時間の問題だと考えている。


専門性の壁が薄まるとき

仮にClaude Mythosが現時点で限定的な環境でしか動かないとしても、今後、同等または類似の能力を持つAIは他社からも登場するだろう。モデルの推論能力、コード理解能力、エージェントとしての自律実行能力が上がれば、これまで人間の高度専門家が担っていた作業の一部は、AIによって大幅に効率化される。これは防御側にとって大きなチャンスである一方、攻撃側にとっても同じだけ大きな武器になる。

従来のサイバー攻撃は、専門知識の壁が一定の防波堤になっていた。脆弱性を発見する、攻撃コードを作る、対象環境に合わせて調整する、検知を回避する、権限昇格する、といった工程には高度な技術が必要だった。しかし、AIがこれらの工程を対話形式で支援し始めると、攻撃者の裾野は広がる可能性がある。専門家でなくても、AIに聞きながら試行錯誤できるようになるからである。

攻撃側がAIを使う以上、防御側もAIを使わなければ、速度と量で対抗できなくなる

ここで重要なのは、企業が「AIを使うか、使わないか」という議論に留まっていてはならないという点である。私は、AIを使わないという選択肢は、いずれ現実的ではなくなると考えている。なぜなら、攻撃側がAIを使う以上、防御側もAIを使わなければ、速度と量で対抗できなくなるからである。

従来のセキュリティ対策は、ルールベースの検知、定期的な脆弱性診断、パッチ適用、SOCによる監視、インシデント対応計画などが中心だった。これらは今後も重要である。しかし、AI時代の攻撃は、より高速で、より個別最適化され、より大量に発生する可能性がある。人間だけでログを確認し、人間だけでコードをレビューし、人間だけで脆弱性情報を追い続ける運用では限界が来る。

だからこそ、AIを防御側にも組み込む必要がある。

たとえば、社内システムのコードレビュー、OSSライブラリのリスク確認、ログの異常検知、攻撃シナリオの仮説生成、インシデント対応時の初動整理、脆弱性情報と自社資産の突合、従業員向けの標的型メール訓練など、AIが支援できる領域は多い。特に中小企業にとっては、限られた人員で高度なセキュリティ対応を行うための補助線になり得る。


「AI導入」ではなく「AI運用設計」

ただし、ここで大きな注意点がある。AIを社内全員に自由に使わせればよい、という話ではない。

サイバーセキュリティ領域のAIは、使い方を誤れば防御ツールではなく攻撃ツールになり得る。たとえば、社内のソースコード、設定ファイル、認証情報、ネットワーク構成、顧客情報などを不用意にAIへ入力すれば、情報漏えいのリスクがある。また、AIエージェントにシェルコマンド実行権限や外部通信権限を与えた場合、誤動作や悪用によって重大な影響が発生する可能性もある。

企業が考えるべきなのは、「AI導入」ではなく「AI運用設計」である。

具体的には、誰が使えるのか、何に使えるのか、どのデータを入力してよいのか、出力結果を誰が検証するのか、AIが実行できる操作範囲はどこまでか、ログをどのように保存するのか、外部通信をどこまで許可するのか、誤用・悪用が起きた場合にどう停止するのか、といった設計が必要になる。

特にセキュリティ用途のAIについては、利用権限を限定することが重要である。全社員に開放するのではなく、セキュリティ対応部門、情報システム部門、開発部門の一部、あるいは明確に訓練を受けた担当者に限定すべきである。加えて、AIの利用ログを取得し、機密情報の入力を制限し、外部システムへの操作権限を最小化する必要がある。


中小企業と人材の射程

これは大企業だけの課題ではない。むしろ中小企業こそ、早期に考えるべきテーマである。

中小企業は、専任のセキュリティ人材を十分に抱えられないことが多い。情報システム担当者が一人、あるいは兼任というケースも珍しくない。そのような企業に対して、AIは大きな支援になり得る。たとえば、脆弱性情報を読み解き、自社の利用ソフトウェアに影響があるかを整理する。怪しいメールを分析する。ログの異常を要約する。社内規程やチェックリストを作成する。こうした業務は、AIによって現実的に補完できる可能性がある。

一方で、中小企業が無防備にAIを導入すれば、かえってリスクを増やすことにもなる。セキュリティ担当者がいない状態で、高度なAIエージェントに社内環境へのアクセスを許可すれば、内部不正、誤操作、情報漏えいのリスクは高まる。だからこそ、中小企業に必要なのは、最先端モデルをいきなり導入することではなく、まずは利用ルール、権限管理、ログ管理、入力禁止情報、レビュー体制を整えることである。

今後、セキュリティ人材に求められるスキルも変わるだろう。

従来は、ネットワーク、OS、ミドルウェア、クラウド、暗号、マルウェア解析、ペネトレーションテストなどの専門知識が重視されてきた。これらは今後も必要である。しかし、それに加えて、AIに適切な指示を出し、AIの出力を評価し、誤りを見抜き、必要に応じて再指示するスキルが重要になる。

これは、いわゆる「バイブコーディング」に近い感覚だと考えている。

バイブコーディングとは、AIと対話しながら、仕様を伝え、コードを書かせ、実行し、修正し、改善していく開発スタイルである。セキュリティ領域でも同じように、AIに対して「このコードのどこが危ないか」「このログから攻撃の兆候を探してほしい」「この構成で権限昇格につながる経路はあるか」「この脆弱性情報は自社環境に影響するか」と問いかけながら、仮説検証を高速に回すスタイルが広がっていくはずである。

ただし、ここで誤解してはいけないのは、AIに任せれば専門知識が不要になるわけではないということだ。むしろ逆である。AIの出力を評価するには、一定以上の専門知識が必要になる。AIはもっともらしい誤答を出すことがある。過剰に危険を煽ることもあれば、逆に重大なリスクを見落とすこともある。したがって、人間側には、AIの回答を鵜呑みにせず、検証し、判断する能力が求められる。

つまり、これからのセキュリティ人材は「手を動かす専門家」から、「AIを使って高速に仮説検証できる専門家」へと進化していく必要がある。


経営視点と着手順

企業経営の視点では、この変化を単なる技術トレンドとして扱うべきではない。AIによるサイバー攻撃・防御の高度化は、事業継続、顧客信頼、取引先評価、サプライチェーンリスク、法令遵守に直結する経営課題である。情報漏えいが起きれば、技術部門だけでなく、経営、法務、営業、広報、顧客対応まで巻き込まれる。特に取引先からセキュリティ体制を問われる場面は、今後さらに増えるだろう。

その意味で、企業が今から取り組むべきことは明確である。

  1. 自社がどのAIツールを、どの業務で、誰が使っているかを棚卸しすること
  2. 機密情報や顧客情報をAIに入力する際のルールを明確にすること
  3. セキュリティ部門または情報システム部門に限定したAI活用の実証を始めること
  4. AIの利用ログ、権限、外部通信、実行可能操作を管理すること
  5. AIを使いこなすための教育を行うこと

Claude Mythosが示しているのは、単に「危険なAIが登場した」という話ではない。むしろ、「AIを使って守る企業」と「AIを使わず従来型の運用に留まる企業」の差が、今後急速に広がる可能性である。

攻撃者がAIを使う時代に、防御側がAIを使わないという選択は、長期的には成立しにくい。重要なのは、AIを無秩序に使うことではなく、統制された形で使うことである。権限を絞り、ログを取り、用途を限定し、人間が検証し、継続的に改善する。そのような運用設計が、これからの企業セキュリティの標準になっていくだろう。

AIは、サイバー攻撃を容易にする可能性がある。同時に、サイバー防御を大きく前進させる可能性もある。

そのどちらになるかは、企業がどのようにAIを設計し、運用し、人材を育てるかにかかっている。Claude Mythosの登場は、私たちにその現実を突きつけている。もう「AIを使うかどうか」を議論している段階ではない。これから問われるのは、「AIをどのように安全に使いこなすか」である。


Contact

セキュリティ体制やPMOで手が足りないと感じたら、一度話しましょう。

metamorphoseは金融・製薬・大手SIer向けにPMOコンサルティングを提供しています。まずは30分のヒアリングから始められます。

お問い合わせ →
error: Content is protected !!