Anthropic Mythosへの不正アクセスが確認された——それだけなら「また情報漏洩か」で済む話かもしれない。ところが今回は違う。Anthropic自身が「このモデルは危険なサイバー攻撃を可能にしうる」と明言しているモデルに、少数の不正ユーザーが実際に触れたという話だ。Bloombergが2026年4月22日に報じた。

Anthropicが自ら認めた「Mythosの危険性」とは

Mythosは、Anthropicが開発中の最新AIモデル。同社はこのモデルについて、サイバー攻撃の高度化を助けうる能力を持つと内部的に評価していたらしい。つまり、危険性を把握した上で開発を進めていたわけで、その管理体制が破られたことになる。

少数の不正ユーザーが、AnthropicのAIモデル「Mythos」にアクセスした。同社は、このモデルが危険なサイバー攻撃を可能にしうると述べている。(Bloomberg, 2026年4月22日)

「倫理的なAI開発」を旗印に掲げてきたAnthropicにとって、これは看板に直撃する事案だ。OpenAIと並んで次世代AI開発を引っ張る存在が、自社モデルの不正利用リスクを管理しきれなかった——その事実が業界全体への信頼を揺さぶっている。

AIモデル不正アクセスが「ただの情報漏洩」で終わらない理由

従来のサイバー攻撃では、攻撃者側にある程度の専門知識が必要だった。ところがAIモデルを悪用すれば、その壁が一気に下がる。重要インフラへの侵入コード生成、金融システムの脆弱性探索、フィッシング文書の大量自動生成——いずれも、高度なAIがあれば非専門家でも実行できる水準に近づく。

AIモデル不正アクセスが危ういのは、モデルそのものが「攻撃の道具」になる点だ。データを盗むだけでなく、次の攻撃を設計させることができる。その意味で、今回の事案はAI兵器化の懸念を「議論のレベル」から「現実のレベル」に引き上げた出来事として記録されるんじゃないか。

ここで引っかかるのは、不正アクセスの規模が「少数のユーザー」とされている点。人数が少なくても、アクセスされた内容や操作の痕跡次第では被害の深刻度は変わる。現時点で詳細は明らかになっていない。

この先どうなる

短期的には、Anthropicによる調査結果の公表と、Mythosのアクセス管理強化が焦点になる。ただし、それで終わる話ではない。米国では規制当局がAI安全基準の法制化を議論中で、今回の事案はその動きを加速させる可能性がある。各国政府が「危険なAIモデルをどう定義し、誰がどう管理するか」を定めるルール作りにも、具体的な事例として影響を与えそうだ。AIの能力が上がるほど、管理側とリスク側のイタチごっこも高度化していく。Mythosの一件は、その構図がすでに始まっていることを示した。