Mythos Anthropicという組み合わせが、サイバーセキュリティの世界に静かな地殻変動を起こしている。Bloombergが2026年4月10日に報じたのは、性能ランキングの話ではなかった。AnthropicのAIモデル「Mythos」が、ソフトウェアの深部に潜む脆弱性を自律的に発見し、さらに悪用する能力を持つとされている——という、ひとつの警報だ。

人間のアナリストが「数週間」かけることを、AIは数分でやる

ここが引っかかったポイントだった。これまでのサイバー攻撃ツールは、既知の脆弱性リストをなぞるものが多かった。ところがMythosのようなAIモデルは、誰もまだ気づいていない隠れた欠陥を能動的に探し出せる可能性があるとされている。

インフラ、金融システム、軍事ネットワーク。標的になりうる領域は幅広い。そして怖いのは「速さ」だけじゃない。人間の攻撃者なら行動パターンに癖が出る。AIには、それがない。防御側が「次はここを狙ってくるはず」と読めない——そのランダム性こそが、最大の脅威らしい。

「Mythos」をはじめとする、ソフトウェアの深く隠れた脆弱性を突くことができるAIモデルの登場は、サイバー軍拡競争がより速く、より予測困難な局面へと突入しつつあることを示している。(Bloomberg)

AIサイバー兵器という言葉は、数年前まではSF的な響きがあった。それが今、Bloombergが現実のニュースとして報じる素材になっている。

「AIの民主化」が持つ、もうひとつの顔

AIが使いやすくなるほど、こういった攻撃能力にアクセスできる主体も増える。国家だけじゃなく、中規模の犯罪組織や、資金力のある個人まで射程に入ってくる可能性がある。ソフトウェア脆弱性のAI自動発見が普及すれば、防御コストは跳ね上がる一方、攻撃コストは劇的に下がるわけで、非対称性がより極端になるんじゃないかという懸念がある。

Anthropicはこれまで「責任あるAI開発」を掲げてきた企業として知られている。だからこそ、その開発したモデルが当局の懸念リストに載るという構図は、業界全体への問いかけにも見える。開発者の意図と、技術の現実的な用途は、必ずしも一致しない。

この先どうなる

各国政府はすでにAI関連のサイバーセキュリティ規制を議論し始めているが、技術の進化に立法が追いつくまでの「空白期間」は埋まっていない。Mythosが今後、どこまでの能力評価を公式に受けるか、あるいはどこかの政府との連携が発表されるか——そのへんの続報が、このテーマの次の焦点になりそうだ。防御側の技術開発と、規制の整備。どちらが先に形になるか、しばらく目が離せない。