私が毎日のように使っているClaudeが、アメリカ軍によるイランへの爆撃作戦に使われていた——調べ始めてすぐに、そんな報道に出会った。

きっかけは、毎週日曜日に欠かさず聴いているPodcast「News Connect」だった。日曜回の固定ゲストである塩野誠さんが、この3年間ほど毎週のように国際地政学の不安定さについて言及しており、自分の関心も高まっていた。ウクライナとロシアの戦争が3年以上続き、直近ではアメリカ・イスラエルとイランの軍事衝突により、世界的なバランスが揺らいでいる。地政学とテクノロジーが交差するこの現代について、もうすこし解像度を持ちたいなと思い、少し時間をかけて調べてみることにした。

開発元のAnthropicが、ペンタゴンの「Project Maven」と呼ばれる標的選定プラットフォームにClaudeを統合したとされている。Fortuneの報道によれば、1万5,000以上の目標に対する攻撃判断を支援していたという。私がビジネス文書を書いたり、コードを整理したりするためのツールが、戦場ではまったく異なる「タスク」をこなしていた。

ウクライナという世界最大のAIテストベッド

ドローン

ロシアによるウクライナ侵攻が始まって、もう3年が経つ。

この戦争が、AIやドローンといった最新テクノロジーの最大の実験場になっている。日本に住む私はなかなかリアルには感じられないが、調べてみると、数字が次々と出てきた。

技術の精度が上がるということは、より少ない弾数で、より確実に人を傷つけられる、ということだ。人間が引き金を引かない戦闘が、すでに現実に始まっている。

さらにドローンとAIによる戦争は、攻撃側と防御側のコスト非対称性を生んでいる。

CSISの分析によれば、イランのShahedドローン1機のコストは約3〜5万ドル(500万円前後)とされる。一方、これを迎撃するPatriotミサイルは1発あたり約300〜400万ドル(4〜6億円)。コスト比は約85対1だ。

安いドローンを大量に飛ばせば、防御側は高価なミサイルを消耗し続けるしかない。この非対称性を崩すために、ウクライナは低コストの迎撃ドローン(1機3,000〜5,000ドル)を大量開発・配備し、経済的な均衡を取り戻そうとしている。AIなしにはこの技術適応は実現できない。

補足: Shahedドローンのコスト推計は情報源によって幅があり、$20,000〜$50,000(約300万〜750万円)とするレポートも存在する。ウクライナの迎撃ドローンも$1,000前後のモデルから存在しており、上位モデルでは「3,000〜5,000ドル」とされている。

ではなぜウクライナでここまでAIが進化したのか。理由はシンプルで、実戦フィードバックの速さだ。

ウクライナの技術者は週単位でアルゴリズムを改善し、翌週には実際の戦場で結果を確認できる。その結果次第で、犠牲者の数が変わる。

CSISのレポートでは、「米国企業には同じ機会がない」とあるエンジニアの言葉が紹介されていた。

世界のハイテクノロジーの最先端はシリコンバレーであり、最も優秀なエンジニアが集積している、という認識が一般的だ。しかし、どれほど優秀なエンジニアがいて潤沢な予算があっても、命がかかったリアルタイムのフィードバックループは、平時には再現できない。

データが戦場から世界へ流れる

戦場で積み上げられたデータは、今度は世界に向けて開かれ始めている。

  • Brave1 Dataroom(2026年1月):PalantirとウクライナのMinistry of Defenseが立ち上げたプラットフォーム。実戦映像、熱探知データ、ドローンの飛行ログを使ってAIモデルを訓練できる
  • 戦場データの同盟国開放(2026年3月):ウクライナが同盟国に向けてデータを開放。世界初の取り組みだとされている
  • UNITE-Brave NATONATO発表によると1,000万〜5,000万ユーロ規模のイノベーションプログラムが始動

戦場は「特定の国がAIを鍛える場」から、「ウクライナを中心に西側同盟全体がデータを共有してAIを進化させる仕組み」へと変わろうとしている。

なぜ戦場でAIが最速で進化するのか

戦場で最先端のテクノロジーが最も速く進化するというのは、歴史的に何度も繰り返されてきたパターンであり、過去から韻を踏む事象となっている。

  • インターネットはARPANETとして軍事目的で生まれ
  • GPSも元は軍用の測位システム、ドローンも軍の偵察機が起源

「機能しなければ人が死ぬ」という圧力が、戦場をテクノロジー進化の最大の原動力にしている。医療や金融でもAIは使われているが、命がかかる場面で失敗すれば即座にフィードバックが返り、翌週には改善が求められる——こんな開発環境は戦場以外にはない。

軍事戦略の世界には「OODAループ」という概念がある。

  • Observe(観察)
  • Orient(状況判断)
  • Decide(意思決定)
  • Act(行動)

という循環で、このループを相手より速く回した側が勝つとされる。AIは今、このうちの「Orient」と「Decide」を、数時間から数秒に圧縮しつつある。

「命」は技術にとって究極のフィードバック材料となっている。成功すれば敵が倒れ、失敗すれば味方が死ぬ。どんな商業的KPIもこの圧力には遠く及ばず、だから戦場で技術が加速する。好むか好まざるかにかかわらず、受け止めるべき事実だと思う。

Anthropic vs アメリカ政府

政府機関

2月24日、米Hegseth国防長官はAnthropicに最後通牒を出した。「2月27日までに、AIモデルのあらゆる合法的目的での無制限使用を認めよ」というものだ。これにはAI駆動の大規模国内監視と、完全自律型兵器への利用も含まれていた。

2月26日、AnthropicはCEO Dario Amodeiの名で公開声明を発表し、これを拒否した。理由は大きく2つだ。

  • 大規模国内監視:「AI駆動の大量監視は民主的価値と相容れない」。令状なしに市民の移動記録やウェブ閲覧データが収集される状態は受け入れられない
  • 完全自律型兵器:「現在のAIシステムは完全自律型兵器を支えるのに十分な信頼性がない」。AIはハルシネーションを起こし、まだ完全には信頼できないという認識

翌27日、トランプ大統領は連邦機関にAnthropicの製品使用を禁止し、「サプライチェーンリスク」として指定した。通常は外国企業に対して使われる指定で、Anthropicはその後差し止めを求めて提訴している。政府は代わりにOpenAIと契約した。

AIを開発する側が「どこで止めるか」を問われた、おそらく世界初のケースだ。Anthropicは完全な協力を拒んだ。それでも部分的な統合は行われ、結果的にClaudeはイラン攻撃に使われた。そしてAnthropicが断った後、政府はOpenAIという別の選択肢に乗り換えた。企業単位の倫理判断は、別の企業に置き換えられるだけで問題は消えない——それが、規制が必要だという問いにつながる。

倫理と規制の空白

法と規制

ウクライナでは、国防省高官は「私たちに必要なのは効率的に敵を殺せるものだ」と語ったとされる。

残酷に聞こえるかもしれないが、侵略された自国を守る側の言葉として、十分に理解できてしまう。倫理の話をしている余裕が、彼らにはないのだろう。

一方で、国際赤十字委員会(ICRC)は自律型致死兵器について警告を続けている。Rest of Worldの記事では「取り返しのつかない道徳的閾値を越えることになる」という懸念も紹介されていた。AIが人間の判断なしに人を殺す世界では、誰が責任を取るのか。システムの設計者か。軍の指揮官か。それとも、誰も取らないのか。

規制の整備はAIの進化に追いつけていない。しかし、命のやり取りが行われる戦場ではその「空白」をよいことに、命の選択が今この瞬間もAIによって行われている。

この現実との、遠すぎる距離感

正直に言えば、ウクライナやイランの戦場と私の日常の距離は遠い。

でも今回、この問いを起点に調べ、記事にまとめてみて、「使うツールの裏側を想像すること」の重要性を改めて感じた。AIは中立な道具ではない。それを作った組織の判断、契約の内容、実際の用途、磨かれた場所——そういったものが、常に裏に存在している。

ユーザーとして、全てを知ることも、全てをコントロールすることもできないが、「どういう会社が、どういう方針で作っているか」を意識して選ぶ程度のことはし続けたい。AIが急速に進化している背景に何があるかを、定期的に問い直すこともできるはずだ。

かつてはインターネットがそうであったように、技術が最も速く進化する場所が戦場であるとするなら、私たちが享受する技術の進歩はどこかで誰かの命と交換された結果であるかもしれない。その想像力はせめて持ち続けたいと思う。

参考