ミハイロ・フェドロフが国防相に就いたとき、35歳だった。元スタートアップ創業者のこの男が今、人類史上最も生々しい実験場でAI兵器の実戦投入を指揮している——ニューヨーク・タイムズが報じた内容は、そういう話だった。

フェドロフが賭けた「人間なしの判断」

フェドロフがウクライナ生存の切り札と位置づけているのが、AIを搭載した自律型ドローンとキラーロボット群だ。通常の兵器と何が違うか。人間がトリガーを引かない、という一点に尽きる。

目標を認識し、経路を選び、攻撃を実行する——その一連のプロセスをアルゴリズムが完結させる。兵士の判断を挟む時間的余裕がないほど戦局が速く動いているからこそ、この設計思想が採用されたらしい。スタートアップ的な発想で言えば「人間はボトルネック」ということになる。

「ウクライナの35歳の国防相、ミハイロ・フェドロフは、未来的な軍事技術が自国の生存に不可欠だと見ている。」(ニューヨーク・タイムズ)

実際、ウクライナは2022年の開戦以降、ドローン技術の内製化を急速に進めてきた。民間の技術者、ITエンジニア、ゲーマーまで動員して開発・改良を続けた結果、今では数千機規模の自律型ドローン運用能力を持つとも言われている。フェドロフはそのエコシステム全体の設計者に近い立場にいる。

自律型兵器が「ルール」より速く動く問題

ここで引っかかるのが、国際人道法との関係だ。ジュネーブ条約をはじめとする戦時国際法は、攻撃対象の識別や均衡性の判断を「人間が行う」ことを前提に設計されてきた。AIが交戦判断を下す場合、その責任の所在はどこに生まれるのか。アルゴリズムは裁判所に立てない。

国連レベルでは自律型致死兵器システム(LAWS)の規制論議が続いているが、合意には至っていない。その間に、ウクライナの戦場では既成事実が積み上がっていく。AI 戦争という概念が法整備のスピードを追い越しつつある、というのが現状に見える。

ロシア側も無人化・自律化の実験を並行して進めているとされ、双方がAI兵器を投入し合う戦場は、国際人道法の「適用範囲外」になりつつあるんじゃないかという懸念が専門家から出ている。

この先どうなる

フェドロフ主導のAI兵器開発は、ウクライナ単独の問題ではなくなりつつある。NATO加盟国の防衛企業はウクライナの実戦データを吸収しながら次世代兵器の開発を加速しており、ウクライナは「生きた試験場」として機能している側面も否定できない。

自律型兵器 ウクライナへの国際的な批判が高まれば、停戦交渉の条件に「AI兵器の使用制限」が盛り込まれる可能性もある。ただ、一度実戦で有効性が証明された技術を手放す国はほぼいない——それが歴史の教訓だ。AI 戦争の「最初のルール」を誰が、どこで決めるのか。その答えが出ないまま、戦場だけが先に進んでいる。