撰文:Ada,深潮TechFlow
2 月24 日,星期二。華盛頓,五角大廈。
Anthropic CEO Dario Amodei 坐在國防部長Pete Hegseth 對面。據NPR 和CNN 多家媒體引述知情人士透露,會面的氣氛“禮貌”,但內容一點都不客氣。
Hegseth 給了他一個最後通牒:週五下午5:01 之前,放開Claude 的軍事使用限制,允許五角大樓將其用於“所有合法用途”,包括自主武器瞄準和國內大規模監控。
否則取消2 億美元合約。啟動《國防生產法》,強制徵用。將Anthropic 列為“供應鏈風險”,這等同於把它歸入俄羅斯和中國敵對實體的黑名單。
同一天,Anthropic 發布了第三版「負責任擴展政策」(RSP 3.0),悄悄刪掉了公司成立以來最核心的一條承諾:如果無法保證安全措施到位,就不訓練更強大的模型。
也是同一天,Elon Musk 在X 上發文說:「Anthropic 大規模竊取訓練數據,這是事實。」同時,X 的社區筆記補充了Anthropic 因使用盜版書籍訓練Claude 而支付15 億美元和解金的報導。
七十二小時內,這家自稱有「靈魂」的AI 公司,同時扮演了三個角色:安全殉道者、智慧財產權竊賊、五角大廈的叛徒。
哪個才是真的?
也許都是。
五角大廈的“要么服從,要么滾”
故事的第一層很簡單。
Anthropic 是第一家獲得美國國防部機密級存取權限的AI 公司。去年夏天拿到的合同,上限2 億美元。 OpenAI、Google、xAI 隨後也各拿了同等規模的合約。
據Al Jazeera 報道,Claude 曾被用於今年1 月的一次美軍行動。報道稱該行動涉及委內瑞拉總統馬杜羅的綁架。
但Anthropic 劃了兩條紅線:不支援全自主武器瞄準,不支持對美國公民的大規模監控。 Anthropic 認為,人工智慧的可靠性不足以操控武器,而且目前還沒有任何法律法規規範人工智慧在大規模監控中的應用。
五角大廈不買帳。
白宮AI 顧問David Sacks 去年10 月在X 上公開指控Anthropic「以恐懼為武器,搞監管俘虜」。
競爭對手已經跪了。 OpenAI、Google、xAI 都同意讓軍方將其AI 用於「所有合法場景」。 Musk 的Grok 本週剛獲準進入機密系統。
Anthropic 是最後一個站著的。
截至發稿,Anthropic 在最新發表的聲明中表示,他們並沒有打算讓步。但周五5:01 的大限,已經近在眼前。
一位匿名的前司法部與國防部聯絡員對CNN 表示了困惑:“你怎麼能同時宣布一家公司是'供應鏈風險',又強迫這家公司為你的軍隊工作?”
好問題,但這不在五角大廈考慮範圍之內。他們在乎的是,如果Anthropic 不妥協,將採取強製手段,或者,成為華盛頓棄兒。
「蒸餾攻擊」:一場打臉式的控訴
2 月23 日,Anthropic 發了一篇措辭激烈的博客,指控三家中國AI 公司對Claude 進行了「工業級蒸餾攻擊」。
被告是DeepSeek、Moonshot AI、MiniMax。
Anthropic 指控它們透過2.4 萬個偽造帳戶,對Claude 發起超過1600 萬次交互,定向提取Claude 在智能體推理、工具調用和編程方面的核心能力。
Anthropic 把這件事定性為國家安全威脅,聲稱蒸餾後的模型“不太可能保留安全護欄”,可能被威權政府用於網路攻擊、虛假資訊和大規模監控。
敘事很完美,時機也很完美。
恰好在川普政府剛剛放寬對華晶片出口管制之後,恰好在Anthropic 需要為自己的晶片出口管制遊說立場尋找彈藥的時候。
但是Musk 開了一槍:“Anthropic 大規模竊取訓練數據,還為此支付了數十億美元和解金。這是事實。”

AI 基礎設施公司IO.Net 聯合創始人Tory Green 表示:“你們用全網的數據訓練自己的模型,然後別人用你們的公共API 學習你們,就叫'蒸餾攻擊'了?”
Anthropic 把蒸餾叫“攻擊”,但這件事在AI 行業是家常便飯。 OpenAI 用它來壓縮GPT-4,Google 用它來優化Gemini,連Anthropic 自己也在做。唯一的區別是,這次被蒸的是它自己。
根據新加坡南洋理工大學AI 教授Erik Cambria 對CNBC 表示:“合法使用和惡意利用之間的邊界往往是模糊的。”
更諷刺的是,Anthropic 剛剛為使用盜版書籍訓練Claude 支付了15 億美元和解金。它用全網的資料訓練模型,然後指控別人用它的公開API 學習它。這不是雙標,這是三標。
Anthropic 本想扮演受害者,結果被扒成了被告。
安全承諾的拆除:RSP 3.0
就在與五角大廈對峙、與矽谷互撕的同一天,Anthropic 發布了第三版負責任擴展政策。
Anthropic 首席科學家Jared Kaplan 在接受媒體採訪時表示:“我們覺得停止訓練AI 模型對任何人都沒有幫助。在AI 快速發展的背景下,單方面做出承諾……而競爭對手在全速推進,這沒有意義。”
換句話說,別人不講武德,我們也不裝了。
RSP 1.0 和2.0 的核心是一條硬性承諾,如果模型的能力超過了安全措施的覆蓋範圍,就暫停訓練。這項承諾讓Anthropic 在AI 安全圈獲得了獨一無二的聲譽。
但3.0 刪了。
取而代之的是一個更「靈活」的框架,即把Anthropic 自己能做的安全措施和需要全行業協作的安全建議分成兩條軌道。每3-6 個月發一份風險報告。請外部專家審閱。
聽起來很負責?
來自非營利組織METR 的獨立審查員Chris Painter 在看完政策早期草案後對錶示:“這說明Anthropic 認為需要進入'分診模式',因為評估和緩解風險的方法跟不上能力增長的速度。這更多地證明了社會對AI 潛在災難性風險沒有做好準備。”
根據TIME 報道,Anthropic 花了將近一年時間內部討論這次改寫,CEO Amodei 和董事會全票通過。官方說法是,原來的政策設計初衷是推動產業共識,結果產業根本無法跟上。川普政府對人工智慧發展採取了放任自流的態度,甚至試圖廢除各州的相關法規。聯邦層級的人工智慧法律遙遙無期。儘管在2023 年建立全球治理框架似乎還有可能,但三年過去了,這扇門顯然已經關閉。
一位長期跟踪AI 治理的匿名研究員說得更直接:“RSP 是Anthropic 最值錢的品牌資產。刪掉暫停訓練承諾,就像一家有機食品公司悄悄把'有機'兩個字從包裝上撕下來,然後告訴你他們現在的檢測更透明了。”
3800 億估值下的身份撕裂
2 月初,Anthropic 以3,800 億美元估值完成300 億美元融資,亞馬遜是錨定投資者。自成立以來,就實現了140 億美元的年化收入。過去三年,這一數字每年都成長超過10 倍。
同時,五角大廈威脅將其列入黑名單。 Musk 公開指控其資料竊取。自己的核心安全承諾被刪除。 Anthropic 的人工智慧安全負責人Mrinank Sharma 辭職後在X 上寫道:“世界正處於危險之中。”
矛盾?
或許矛盾是Anthropic 的基因。
這家公司由前OpenAI 高層創立,因為他們擔心OpenAI 在安全問題上走得太快。然後他們自己建造了一家公司,以更快的速度建造更強大的模型,同時告訴全世界這些模型有多危險。
商業模式可以歸納為一句話,我們比任何人都更害怕AI,所以你應該出錢讓我們來造AI。
這個敘事在2023-2024 年完美運作。 AI 安全是華盛頓的熱詞,Anthropic 是最受歡迎的遊說者。
2026 年,風向變了。
「woke AI」成了攻擊標籤,州級AI 監管法案被白宮阻擊,Anthropic 支持的加州SB 53 雖然簽署成法,但聯邦層面一片荒蕪。
Anthropic 的安全牌,正在從「差異化優勢」滑向「政治負資產」。
Anthropic 在做一個複雜的平衡術,它需要足夠「安全」來維持品牌,又需要足夠「靈活」來不被市場和政府拋棄。問題是,兩頭的容忍空間都在縮小。
安全敘事,還值多少錢?
把三件事疊在一起看,畫面就清楚了。
指控中國公司蒸餾Claude,是為了強化晶片出口管制的遊說敘事。為了在軍備競賽中不掉隊,刪除了安全暫停承諾。拒絕五角大廈的自主武器要求,是為了保住最後一層道德外衣。
每一步都有邏輯,但每一步之間又互相矛盾。
你不能一邊說中國公司「蒸餾」你的模型會危害國家安全,一邊刪掉防止你自己的模型失控的承諾。如果模型真的那麼危險,你應該更謹慎,而不是更激進。
除非你是Anthropic。
在AI 行業,身份不是由你的聲明定義的,是由你的資產負債表定義的。 Anthropic 的「安全」敘事,本質上是一種品牌溢價。
在AI 軍備競賽的早期,這種溢價值錢。投資者願意為「負責任的AI」支付更高的估值,政府願意為「可信賴的AI」開綠燈,客戶願意為「更安全的AI」付費。
但2026 年,這個溢價正在蒸發。
Anthropic 現在面臨的,不是「要不要妥協」的選擇題,而是「先向誰妥協」的排序題。向五角大廈妥協,品牌受損。向競爭對手妥協,安全承諾作廢。向投資人妥協,兩頭都得讓。
週五下午5:01,Anthropic 會交出它的答案。
但無論答案是什麼,有一件事已經確定:那個曾經靠著「我們和OpenAI 不一樣」立足的Anthropic,正在變得和所有人一樣。
身份危機的終點,往往是身分的消失。

