著者:アニタ、センティエント・アジア・パシフィック シニアエグゼクティブ
イラン戦争により、大型模型が研究室から一気に戦場へ持ち込まれた。
2026年2月末に実施された「エピック・フューリー作戦」は、単なる共同空爆ではなく、実際の戦場におけるAIのストレステストのようなものだった。「センサー・判断・射撃」のリンクを数分、あるいは数秒で圧縮できる者が、次の地政学的な局面で価格決定権を握ることになるだろう。
I. エピックフューリー:最初の「AIフルスタック戦争」
この作戦において、米国とイスラエルの公式筋は、イランの主要軍事施設および核施設への集中攻撃が「戦略的成功を収めた」と主張し、イランの最高指導者ハメネイ師がテヘラン北部の地下司令部施設への攻撃で殺害された可能性が高いと繰り返し示唆した。しかし、イランが長年にわたりハメネイ師の安否を明確に確認することを拒否していることから、この「斬首」は権力と権威をめぐる駆け引きのように見える。
運用の観点から見ると、Epic Fury の特徴はその期間ではなく、その密度です。10 日間以上続く高強度の空中作戦で、ドローン群、特殊作戦、サイバー戦争が含まれており、そのすべてが、Palantir の戦場オントロジーとデジタル ツイン プラットフォーム、米国防衛機関の諜報融合システム、イスラエルの自動ターゲット生成ツール、OpenAI などの最先端の大規模モデル企業の新しい役割など、高度なソフトウェア主導の運用スタックによって支えられています。
この戦争は象徴的な転換点となる。今後、「軍事上の意思決定への AI の関与」はペンタゴンの PowerPoint プレゼンテーションにおける流行語ではなくなり、市場、規制、倫理の議論において避けられないキャッシュフローと政治的リスクの実際の原因となる。
II. OpenAI:「倫理宣言」から国防総省の最も高額なSaaSサブスクリプションまで
わずか2、3年で、OpenAIはその公的な立場に驚くべき変化を遂げました。
「軍事利用」から距離を置くことから、安全保障原則を満たしながら国家安全保障と防衛プロジェクトを支援できることを認めることまで、同社は現代で最も機密性の高い大手顧客との契約を確保した。
2026年2月27日頃、サム・アルトマンは、自社が米国国防総省と、情報分析、翻訳、戦闘シミュレーションといった「防衛関連シナリオ」向けに機密ネットワークにGPTシリーズモデルを展開する契約を締結したと発表しました。一部の公開資料やメディア報道では、この伝統的な国防総省は意図的に「戦争省」と称され、より攻撃的な戦争用語への回帰を象徴的に示していましたが、組織の正式名称は依然として国防総省のままです。
公表されている「越えてはならない一線」は、おおよそ次の 3 つのカテゴリーにまとめられます。
米国内での大規模な監視には参加していない。
武力の使用は「人間の存在」を維持しなければならず、完全に自律的な殺傷兵器システムによって直接駆動されるべきではない。
リスクの高い意思決定においては、人間による監視と説明責任を維持する必要があります。
これらの原則は、OpenAI の対外的な倫理的立場を示すものであり、契約交渉における交渉材料としても機能する。ワシントンに送るシグナルは、同社が協力する意思はあるが、「管理された範囲内で」協力したいと考えているということだ。
これらのモデルは、Epic Furyのような現実世界のシナリオにおいてどのような役割を果たすのでしょうか?公開情報はセキュリティに関する説明を提供するのみで、情報処理の支援、複雑なデータの分析、意思決定者がより迅速に状況を把握するのを支援するといった役割しか果たしません。
しかし、技術的な観点から言えば、大量の衛星画像、信号情報、ソーシャルメディアのストリームを大規模なモデルに入力し、それらを分類し、進路を予測し、潜在的な「高価値ターゲット」のリスクを評価させることは、本質的に「戦場の脳」に非常に近いものです。
ウォール街にとって、この合意の重要性は明白だ。
アンスロピック社が国防総省から厳格な一線を越える要求を主張したため「サプライチェーンリスク」とレッテルを貼られた後、OpenAI社は「倫理的な妥協は限定的、商業的には莫大な利益」というアプローチでこの数億ドル規模の防衛契約を受け入れたが、これは競合他社が揺るがすのが極めて困難である。
III. 人類中心主義: 防衛予算の限界にこだわる「原則的な」人物。
OpenAIの「実用主義」とはまったく対照的なのが、Anthropicの苦境だ。同社はもともと国防総省にとって最も価値のある最先端モデルプロバイダーの1つだったが、レッドラインで譲歩することを拒否したため、極めて残酷な方法でシステム全体から排除された。
複数のメディアは、アントロピック社が国防総省との交渉中に以下の2点について強硬な姿勢を取ったと報じた。
クロードは完全自律型兵器システムには参加していません。
クロード氏は米国民の大量監視やプロファイリングには関与していない。
国防総省の要求は、「正当な使用はモデル供給者によって事前に定義されるべきではない」というものである。
交渉決裂後、ピート・ヘグゼス国防長官は期限後に、アンスロピックを国家安全保障上の「サプライチェーンリスク」に指定し、軍と取引のあるすべての請負業者に対し、6ヶ月以内にクロードから移転するよう要求すると発表した。この指定は、これまでファーウェイなどのライバル国の企業に主に使用されていたが、今回初めて米国に拠点を置くAIスタートアップに適用され、シリコンバレーで冷ややかな議論を引き起こした。
国防総省の内部評価によれば、機密システムに組み込まれた大規模なモデルスタックの完全な交換には数か月かかる可能性があり、禁止措置の実施時期がエピック・フューリーの実施時期とかなり重なることになる。
技術的な現実を踏まえると、クロード氏は大統領令によって「追放」される前にも、何らかの形で米国の国家安全保障業務に関与し続けていた可能性が高い。しかし、公聴会では誰もこの関連性を明らかにしようとしなかった。これは現代の軍産複合体における典型的な「グレーゾーン」である。
資本市場は単純だが危険な教訓を学んだ。それは、「安全のレッドライン」が「防衛受注の最大化」と衝突する場合、交渉に応じる姿勢のある企業がより安全な投資対象になることが多いということである。一方、原則を堅持する企業は一夜にして「サプライチェーンリスク」を抱えているとレッテルを貼られ、投資家に「再評価」ボタンを押させられる可能性がある。
IV. 真の中枢神経系:マイクロソフト、グーグル、そして「クラウドベースの軍産複合体」
OpenAI と Anthropic がこの戦争における「頭脳」だとすれば、Microsoft と Google は真の中枢神経系です。
彼らのクラウドがなければ、すべての大きなモデルとネイティブ AI ツールは単なる PowerPoint プレゼンテーションのままになります。
Microsoft Azure: オフィスクラウドからキルチェーンオペレーティングシステムへ
AP通信や複数の組織の調査によると、2023年10月以降、イスラエル軍によるAzure上の機械学習ツールの利用規模はわずか数か月で数十倍に急増し、最大64倍に達し、AI関数の呼び出し全体は200回に近づいている。
同時に、大規模データストレージは米国議会図書館と同等のレベルに達しています。
この計算能力は、大量の通信の転記と翻訳、監視インフラからの信号諜報の処理、イスラエルの現地AIシステム(ラベンダーやゴスペルなど)との連携によるターゲットリストとリスク評価の自動生成に使用され、「ターゲット生産ライン」のスループットが大幅に向上します。
マイクロソフトはその後、世論と従業員からの圧力を受けてイスラエル軍の一部部隊(特に監視関連)へのサービスを縮小したが、中核となるクラウドと AI の契約は継続され、大規模な商用注文がもたらされたが、評判には大きなダメージを負った。
Google Project Nimbus: 最も政治的リスクプレミアムの高い戦時クラウド
2021年以降、GoogleとAmazonはプロジェクト・ニンバスを通じて、イスラエル政府と軍に約12億ドル相当の統合クラウドインフラ(コンピューティング、ストレージ、機械学習ツールを含む)を提供してきました。従業員、研究者、人権団体は、この件に対して一貫して警告を発してきました。
グーグルは契約に「攻撃的な軍事利用は含まれていない」と繰り返し強調しているが、ニンバスの汎用クラウドとAI機能は監視や軍事目標の選択に非常に適している。
Epic Fury が導入された頃には、Nimbus のようなクラウド プラットフォームがイスラエル軍の複雑な標的計画、戦場シミュレーション、リアルタイムの情報融合を支える重要なコンピューティング基盤であると広く信じられていましたが、具体的な呼び出しパスやケースの詳細は機密のままでした。
リスクの観点から見ると、これはGoogleが中東のセキュリティ顧客からの安定した収益のために「わずかに高い政治的リスクプレミアム」を支払っていることを意味します。一方、このプロジェクトをめぐる社内の抗議活動や辞任は、これが単に通常のエンタープライズクラウド契約としてみなせるビジネスではないことを投資家に思い出させるものとなっています。
V. イスラエルのAIキルファクトリー:ラベンダーロジックの移植性
AI が戦場をどう変えているのかを理解するためには、イスラエルで最も物議を醸しているシステムのひとつである「ラベンダー」、「ゴスペル」、「Where's Daddy」から始めるのがよいでしょう。
+972 Magazine と Local Call による調査では次のことがわかりました。
「ラベンダー」はガザ地区のほぼすべての成人男性を対象に行動と関係性マッピング分析を実施し、各人に1~100の「武装勢力容疑者スコア」を割り当て、武装グループのメンバーであると疑われる3万7000人もの対象者を迅速に特定した。
「ゴスペル」は建物やインフラに焦点を当て、軍事目的で使用されているとみなされる建物を自動的にマークして、空軍が大量に消費できる爆撃リストを作成します。
「Where's Daddy」は、時間軸を最適化する役割を担っています。つまり、リストに載っているターゲットがいつ帰宅するかを追跡し、ターゲットが家族と一緒に家にいるときに攻撃を仕掛けるのです。これにより、「殺害成功」の可能性は大幅に高まりますが、同時に家族や近隣住民を大きな危険にさらすことになります。
インタビューの中で、イスラエルの最前線にいる諜報機関の職員は、ラベンダー氏が推奨した目標の人間による審査は、多くの場合、わずか数十秒の「形式的なチェック」に過ぎなかったと認めた。
人権団体や国連の専門家は、このシステムを「高度に自動化された大量暗殺工場」と表現し、アルゴリズムによる偏見を増幅させ、人間の判断の余地を狭め、民間人の犠牲者リスクを高めるという構造的な問題を指摘している。
強調しておきたいのは、このシステムとガザ戦争との関連については公的報告書でより明確に言及されているが、イラン戦域におけるこのシステムの具体的な適用に関する公式見解は長らく沈黙を守ってきたということである。
しかし、技術的な移植性の観点から、イラン国内の十分な通信データ、位置の軌跡、ソーシャルグラフが得られれば、ラベンダーの論理をテヘランの権力エリートに「翻訳」することは想像できないことではない。だからこそ、多くのアナリストは、エピック・フューリーはむしろ「ガザ式アルゴリズムによる殺人工場」が主権国家の首都に波及した実験のようなものだと考えているのだ。
VI. 市場と規制:AI・クラウド・防衛複合体の価格決定力
これらの断片をつなぎ合わせると、「シリコンバレー」とはまったく異なる光景が浮かび上がります。
一方では、OpenAIに代表される大手モデル企業は、レッドラインに関して限定的な妥協をいとわず、防衛予算に急速に足場を築いている。ロイター+2
一方、より厳格なセキュリティ原則を主張したアントロピックは、「サプライチェーンのリスク」を口実に国防長官から排除され、業界全体に「唯一の買い手と正面から対決してはならない」という実践的な教訓を与えた。(axios+5)
最下層には、Microsoft や Google などのクラウド大手がおり、GPU クラスターと機密性の高いクラウド ネットワークを使用して現代戦の「オペレーティング システム」を構築し、戦時 AI からのキャッシュフローの大部分を吸収しながら、ますます高まる評判と規制のリスクを負っています。
資産価格の観点から見ると、これはもはや単なる「ハイテク株 vs. 防衛株」の二項対立ではなく、AI、クラウド、防衛という新たな複合体です。
戦術的には、低コストのドローン群、自動化されたターゲット生成、AIによる意思決定システムが伝統的な大国の抑止力を侵食しており、高価な第5世代戦闘機や航空母艦戦闘群が前世代の資本集約型資産のように見えるようになっています。
業界では、大規模モデルやクラウドベンダーが軍事を通じてごく少数のプレイヤーのみが享受できる反循環的なキャッシュフローを獲得し、「セキュリティと機密性」を装って完全な透明性が困難な収益のブラックボックスに入り込んでいる。
政治的に、「誰が国家安全保障の課題にもっと合致しているか」が重要な契約を獲得する上で決定的な変数となると、企業が倫理上の一線を厳守していることは体系的に軽視され、そのようなインセンティブ構造は将来のすべての起業家や投資家によって静かに記憶されることになるだろう。
イランの戦場は、単なる序章に過ぎないかもしれない。次の紛争が台湾海峡、東ヨーロッパ、あるいは中東の別の地域で勃発するとしても、戦争のペースを真に決定づけるのは、もはや戦車の数や砲兵の口径ではなく、ペタバイト規模の機密データで訓練されたモデルと、無数のGPUラックに接続されたクラウドとなるだろう。
問題は、さらに多くのキル チェーンを少数の大規模モデルおよびクラウド企業にアウトソーシングする前に、世界的な規制と民主主義に、アルゴリズムによる推奨事項が実際の戦闘での一連の爆発座標に変わったときに、誰がこれらの決定に責任を負うのかという疑問に真剣に答える時間はまだあるかどうかです。

