作者: Anita ,Sentient亞太區高階主管
伊朗戰爭,把大模型從實驗室一次性扔進了戰場。
2026 年2 月底的「Epic Fury」行動,不只是一次聯合空襲,更像是一場在真實戰區上進行的AI 壓力測試,誰能在分鐘級甚至秒級壓縮「感測器—決策—射手」的鏈路,誰就握住了下一輪地緣政治的定價權。
一、Epic Fury:第一場“AI 全端戰爭”
在這次行動中,美以官方消息人士聲稱,針對伊朗關鍵軍事與核設施的集中打擊“取得了戰略成功”,並多次暗示伊朗最高領袖哈梅內伊極有可能在德黑蘭北部的地下指揮設施中遇襲身亡——但伊朗方面長期拒絕給出清晰的生死確認,讓這樁“斬首”更像是一場圍繞權威的敘事。
從操作層面來看,Epic Fury 的特點不是時間拉得多長,而是密度:十餘天內的高強度空襲、無人機蜂群突防、特種行動與網絡戰穿插推進,背後是一套高度軟體化的作戰棧——Palantir 的戰場本體論與數字孿生平台、美國防務機構的情報融合系統——Palantir 的戰場本體論與數位孿生平台、美國防務機構的情報融合系統、以色列的自動化目標生成工具,再造的新模型新模型。
這場戰爭標記的,是一個象徵意義上的轉捩點:從這裡開始,「AI 參與軍事決策」不再是五角大廈PowerPoint 裡的buzzword,而是市場、監管與道德辯論都繞不開的、實實在在的現金流與政治風險來源。
二、OpenAI:從「倫理宣言」到國防部最貴SaaS 訂閱
短短兩三年時間,OpenAI 的公開立場完成了一次華麗轉身。
從對「軍事用途」保持距離,到承認可以在滿足安全原則的前提下支持國家安全與防務項目,並拿到了可能是本時代最敏感的一張大客戶合約。
2026 年2 月27 日前後,Sam Altman 宣佈公司與美國國防部達成協議,在機密網路上部署GPT 系列模型,用於情報分析、翻譯、作戰推演等「國防相關場景」。 在部分公開資料與媒體報道中,這個傳統意義上的國防部被刻意稱作“Department of War”,象徵性地回到了更具進攻意味的戰爭語言,儘管在法律上機構名稱仍然是Department of Defense。
公開報道梳理出的「紅線」大致有三條:
不參與美國境內的大規模監控;
不直接驅動完全自主的致命武器系統,武力使用必須保持「人類在環」;
在高風險決策中保留人為監督與責任歸屬。
這些原則既是OpenAI 對外的倫理姿態,也是合約談判中的議價籌碼——它向華盛頓傳遞的信號是:這家公司願意合作,但希望在「可控範圍內合作」。 nytimes+1
這些模型在Epic Fury 這樣的實戰中扮演了什麼角色?公開資訊只會停留在安全的描述——輔助情報處理、分析複雜數據、幫助決策者更快形成態勢圖景。
但從技術特性來看,把海量衛星影像、訊號情報與社群媒體流餵給大型模型,再讓它對潛在「高價值目標」進行排序、路徑預測和風險評估,本質已經非常接近「戰場大腦」。
對華爾街來說,這份協議的意義很直接。
在Anthropic 因為堅持更硬的紅線而被五角大樓打上「供應鏈風險」標籤之後,OpenAI 以一種「倫理上有限妥協、商業上極大獲利」的姿態,接住了這張數億美元量級、且極難被競爭對手撼動的國防大單。
三、Anthropic:在國防預算邊緣徘徊的“原則派”
與OpenAI 的「務實」形成鮮明對比的,是Anthropic 的處境:它原本也是五角大樓眼中最有價值的前沿模型供應商之一,卻因為在紅線上拒絕退步,被整套體係以極其粗暴的方式排除在外。
多家媒體報道,在與國防部的談判中,Anthropic 對兩點態度強硬:
Claude 不參與完全自主武器系統;
Claude 不參與針對美國公民的大規模監控與畫像。
而五角大廈的訴求則更接近「任何合法用途都不應被模型供應商預先劃線」。
在談判破裂後,國防部長Pete Hegseth 在最後期限後宣布將Anthropic 列為國家安全“供應鏈風險”,並要求所有與軍方有業務往來的承包商在六個月內完成從Claude 的遷移——這種標籤此前主要用在來自對手國家的公司身上,比如華為,如今首次落在美國本土的AI 創業公司上,在寒螅谷引發了一腦谷的討論。
Pentagon 內部評估顯示,完全替換已嵌入機密系統的大模型堆疊可能需要數月時間,這意味著禁令生效與Epic Fury 的時間窗口高度重疊。
從技術現實推演,Claude 很可能在被行政命令「掃地出門」之前,仍以某種形式參與了美國的國家安全工作,只是沒有任何人願意在聽證會上把這條鏈路講清楚,這也是現代軍工–科技複合體典型的「灰色帶」。
資本市場讀到的是一個簡單卻危險的教訓,當「安全紅線」與「最大化國防訂單」發生衝突時,那家更願意談判的公司,往往也是更安全的投資標的;而堅持原則的企業,可能會在一夜之間被打上「供應鏈風險」的烙印,被投資人按下「重新估值」的按鈕。
四、真正的中樞神經:Microsoft、Google 與“雲版軍工複合體”
如果說OpenAI 和Anthropic 是戰爭裡的“頭腦”,那麼Microsoft 和Google 才是這套體系真正的中樞神經:
沒有它們的雲,所有大模型與本土AI 工具都只能停留在PowerPoint 上。
Microsoft Azure:從辦公室雲端到殺傷鏈作業系統
AP 和多家機構調查顯示,自2023 年10 月以來,以色列軍隊在Azure 上使用機器學習工具的規模在數月內激增至此前的幾十倍,最高可達64 倍,整體AI 功能調用接近200 倍。
同時,大規模資料儲存也達到了相當於國會圖書館等級的數量級。
這些算力被用於轉錄和翻譯大量通訊、處理來自監控基礎設施的信號情報,並與以色列本土的AI 系統(例如Lavender 與Gospel)聯動,自動生成目標列表和風險評估,顯著提高了「目標生產線」的吞吐量。
雖然微軟後來在輿論與員工壓力下削減了對部分以軍單位(尤其是監控相關部門)的服務,但主幹的雲與AI 合約仍在運行,這讓公司在商業上收穫了大額訂單,同時在聲譽層面付出了不小的代價。
Google Project Nimbus:政治風險溢價最高的戰時雲
2021 年開始,Google 與Amazon 透過Project Nimbus 為以色列政府和軍隊提供價值約12 億美元的統一雲端基礎設施,涵蓋運算、儲存與機器學習工具。 員工、學者與人權組織則持續警告:
Nimbus 的通用雲與AI 能力極易被用於監控和軍事目標選擇,儘管Google 官方一再強調合約「不包括進攻性軍事用途」。
到了Epic Fury 這個階段,外界普遍認為Nimbus 類型的雲端平台是支援以軍複雜目標規劃、戰場模擬與即時情報融合的關鍵算力底座,只是具體呼叫路徑與戰例細節仍處於保密狀態。
從風險視角來看,這意味著Google 正在以「略高的政治風險溢價」換取來自中東安全客戶的穩定收入,而公司內部圍繞該項目的抗議和辭職潮,則在提醒投資者:這不是一筆可以簡單視作普通企業雲合約的業務。
五、以色列的AI 殺傷工廠:Lavender 邏輯的可移植性
如果想理解AI 如何改變戰場,人們不妨從一套最具爭議的以色列系統說起:Lavender、Gospel 和Where's Daddy。
+972 Magazine 與Local Call 的調查顯示:
“Lavender” 透過對加薩幾乎所有成年男性進行行為與關係圖譜分析,為每個人打出1–100 的“疑似武裝分子評分”,在短時間內標記出多達3.7 萬名被懷疑為武裝組織成員的目標;
「Gospel」 則專注於建築與基礎設施,自動標記被認為用於軍事目的的樓宇,形成可供空軍批量消耗的轟炸清單;
「Where's Daddy」 負責時間維度的優化:追蹤已列入清單目標何時回到家中,並在其與家人一同在住所時觸發打擊——這極大提高了「成功擊殺」的機率,同時也將家庭成員與鄰居置於高度致命的風險之中。
前線以軍情報官員在受訪時承認,對Lavender 推薦的目標,人類審核往往只是幾十秒的「形式主義打勾」;
而人權組織與聯合國專家則將這套體系形容為“高度自動化的大規模暗殺工廠”,指出它在放大演算法偏見、壓縮人類判斷空間、推高平民傷亡風險方面的結構性問題。
需要強調的是,公開報道更明確地將這套系統與加薩戰爭關聯起來,而對於其在伊朗戰場的具體應用,官方長期保持沉默。
但從技術可攜性來看,只要掌握伊朗境內足夠規模的通訊數據、位置軌跡與社交圖譜,把Lavender 邏輯「翻譯」到德黑蘭權力精英身上,並不是一件難以想像的事情——這也是為什麼許多分析人士認為,Epic Fury 更像是「加沙式演算法殺傷工廠」向一個主權國家首都的外溢實驗。
六、市場與監管:AI–Cloud–Defense 複合體的定價權
把這些碎片拼在一起,你會得到一幅很不「矽谷」的圖景:
一端,是以OpenAI 為代表、願意在紅線上做出有限妥協的大模型公司,在國防預算中迅速站穩腳跟;reuters+2
另一端,是堅持更嚴格安全原則的Anthropic,被國防部長以「供應鏈風險」之名一腳踢出局,給整個產業上了一課「不要和唯一買家硬碰」的現實課;axios+5
底層,則是Microsoft 與Google 這樣的雲巨頭,用GPU 集群與機密雲網絡搭建起現代戰爭的“操作系統”,承接了絕大多數來自戰時AI 的現金流,同時承擔著越來越高的聲譽與監管風險。
從資產定價的角度來看,這不再只是「科技股vs 國防股」的二元對立,而是一種新的AI–Cloud–Defense 複合體:
戰術上,低成本無人機群、自動化目標生產與AI 決策系統正在侵蝕傳統大國威懾,讓昂貴的第五代戰機和航空母艦戰鬥群顯得像上一代資本密集資產;
產業上,大模型與雲廠商透過軍方獲得了極少數玩家才能享有的逆週期現金流,並以「安全與機密」為理由,進入了一個監管難以完全透明的利潤黑箱;
政治上,當「誰更配合國家安全議程」成為獲得關鍵合約的決定性變數時,企業對倫理紅線的堅持會被系統性打折,而這類激勵結構會被未來所有創業家與投資人默默記在心裡。
伊朗戰場可能只是序章。無論下一次爆發在台海、東歐,還是在中東的另一塊地板磚上,真正決定戰爭節奏的,不再只是坦克數量和火砲口徑,而是訓練於多少PB 機密數據之上的模型、連接在多少GPU 機架上的雲。
問題是,在我們把越來越多的殺傷鏈路外包給少數幾家大模型與雲端公司之前,全球監管與民主政治,是否還有時間認真回答一個問題——當演算法的建議在實戰中變成一串爆炸座標時,到底誰來為這些決策負責。

