저자: 아니타 , 센티언트 아시아 태평양 지역 수석 임원
이란 전쟁은 실험실에서 개발된 대규모 모형들을 한꺼번에 전장으로 가져왔다.
2026년 2월 말에 실시된 '에픽 퓨리 작전'은 단순한 합동 공습이 아니라, 실제 전쟁터에서 진행된 인공지능 스트레스 테스트에 가까웠습니다. '센서-결정-사격' 연결 과정을 몇 분, 심지어 몇 초 만에 압축할 수 있는 자가 차세대 지정학적 판도를 좌우할 가격 결정권을 갖게 될 것이었습니다.
I. 에픽 퓨리: 최초의 "AI 풀스택 전쟁"
이번 작전에서 미국과 이스라엘 공식 소식통은 이란의 주요 군사 및 핵 시설에 대한 집중 공격이 "전략적 성공을 거두었다"고 주장했으며, 이란 최고 지도자 하메네이가 테헤란 북쪽의 지하 지휘 시설 공격으로 사망했을 가능성이 매우 높다고 거듭 시사했습니다. 그러나 이란이 그의 생사에 대한 명확한 확인을 오랫동안 거부해 온 점을 고려하면, 이번 "참수"는 권력 다툼의 일환으로 보입니다.
작전적 관점에서 에픽 퓨리의 핵심 특징은 기간이 아니라 강도입니다. 10일 이상 지속되는 고강도 공습 작전으로, 드론 편대 공격, 특수 작전, 사이버 전쟁 등이 포함되며, 이 모든 것은 고도로 소프트웨어 중심적인 작전 스택에 의해 뒷받침됩니다. 여기에는 팔란티어의 전장 온톨로지 및 디지털 트윈 플랫폼, 미 국방부의 정보 융합 시스템, 이스라엘의 자동 표적 생성 도구, 그리고 오픈AI와 같은 최첨단 대규모 모델링 기업들의 새로운 역할이 포함됩니다.
이번 전쟁은 상징적인 전환점을 의미합니다. 이제부터 "군사 의사 결정에 인공지능을 활용하는 것"은 더 이상 미 국방부의 파워포인트 프레젠테이션에나 나올 법한 유행어가 아니라, 시장, 규제, 윤리적 논쟁에서 피할 수 없는 실질적인 자금 조달원이자 정치적 위험 요소가 되었습니다.
II. OpenAI: "윤리 선언"에서 국방부의 가장 비싼 SaaS 구독 서비스로
OpenAI는 불과 2~3년 만에 공개적인 입장에서 놀라운 변화를 이루어냈습니다.
"군사적 용도"와의 연관성을 부인하는 것부터 시작하여, 안보 원칙을 준수하면서 국가 안보 및 국방 프로젝트를 지원할 수 있음을 인정함으로써, 이 회사는 우리 시대에서 가장 민감한 주요 고객 계약 중 하나를 확보했습니다.
2026년 2월 27일경, 샘 알트만은 자신의 회사가 미 국방부와 정보 분석, 번역, 전투 시뮬레이션과 같은 "국방 관련 시나리오"를 위해 기밀 네트워크에 GPT 시리즈 모델을 배포하는 계약을 체결했다고 발표했습니다. 일부 공개 자료와 언론 보도에서는 이 전통적인 국방부를 의도적으로 "전쟁부"라고 지칭하며, 법적 명칭은 여전히 국방부이지만, 보다 공격적인 전쟁 용어를 상징적으로 사용했습니다.
공개적으로 알려진 "레드 라인"은 대략 세 가지 범주로 요약할 수 있습니다.
이 기관은 미국 내 대규모 감시 활동에 참여하지 않습니다.
무력 사용은 "인간의 개입"에 기반해야 하며, 완전 자율형 살상 무기 시스템에 의해 직접적으로 좌우되어서는 안 됩니다.
위험도가 높은 의사결정 과정에서는 인간의 감독과 책임성을 유지해야 합니다.
이러한 원칙들은 OpenAI가 외부 세계에 보여주는 윤리적 입장을 나타내는 동시에 계약 협상에서 협상 카드로도 활용됩니다. 즉, 워싱턴에 보내는 신호는 회사가 협력할 의향이 있지만 "통제된 범위 내에서" 협력하기를 바란다는 것입니다.
이러한 모델은 Epic Fury와 같은 실제 시나리오에서 어떤 역할을 할까요? 공개 정보는 안보에 대한 설명만 제공하며, 정보 처리, 복잡한 데이터 분석, 의사 결정권자가 상황을 더 신속하게 파악하는 데 도움을 줍니다.
하지만 기술적인 관점에서 볼 때, 방대한 양의 위성 이미지, 신호 정보, 소셜 미디어 스트림을 대형 모델에 입력하고, 이를 통해 잠재적인 "고가치 목표물"을 분류하고, 경로를 예측하고, 위험을 평가하는 것은 본질적으로 "전장의 두뇌"와 매우 유사합니다.
월가에게 있어 이 합의의 의미는 명확합니다.
앤트로픽이 더 엄격한 레드라인을 주장하며 미 국방부로부터 "공급망 위험"으로 낙인찍히자, 오픈AI는 "제한적인 윤리적 타협과 막대한 상업적 이익"이라는 전략으로 수억 달러 규모의 방산 계약을 체결했고, 이는 경쟁업체들이 반박하기 매우 어려운 전략이 되었습니다.
III. 앤트로픽: 국방 예산의 경계선에 서 있는 "원칙을 중시하는" 기업.
오픈AI의 "실용주의"와는 극명한 대조를 이루는 것이 앤트로픽의 곤경입니다. 앤트로픽은 원래 미 국방부가 가장 가치 있다고 여기는 최첨단 모델 제공업체 중 하나였지만, 금지선을 넘지 않으려 했기 때문에 매우 잔혹한 방식으로 전체 시스템에서 배제되었습니다.
여러 언론 매체는 앤트로픽이 국방부와의 협상 과정에서 두 가지 쟁점에 대해 강경한 입장을 취했다고 보도했습니다.
클로드는 완전 자율 무기 시스템에 참여하지 않습니다.
클로드는 미국 시민에 대한 대규모 감시 및 프로파일링에 관여하지 않습니다.
미 국방부의 요구는 "모델 공급업체가 합법적인 사용 용도를 미리 정의해서는 안 된다"는 것에 더 가깝습니다.
협상이 결렬된 후, 피트 헤그세스 국방장관은 마감 시한이 지난 뒤 앤트로픽사를 국가 안보 "공급망 위험" 기업으로 지정하고, 군과 거래하는 모든 계약업체에 6개월 이내에 클로드 기지에서 이전할 것을 요구했습니다. 이전에는 화웨이와 같은 경쟁국 기업에 주로 적용되었던 이 명칭이 미국 AI 스타트업에 처음으로 적용되면서 실리콘 밸리에 불안감을 조성하는 논의가 벌어지고 있습니다.
미 국방부의 내부 평가에 따르면 기밀 시스템에 내장된 대형 모델 스택을 완전히 교체하는 데 수개월이 걸릴 수 있으며, 이는 금지 조치 시행 시기가 에픽 퓨리(Epic Fury)의 금지 기간과 상당히 겹친다는 것을 의미합니다.
기술적 현실을 고려할 때, 클로드는 행정 명령으로 "해임"되기 전까지 어떤 형태로든 미국의 국가 안보 관련 업무에 계속 참여했을 가능성이 높습니다. 그러나 청문회에서는 누구도 이러한 연관성을 명확히 밝히려 하지 않았는데, 이는 현대 군산복합체의 전형적인 "회색 지대"입니다.
자본 시장은 간단하지만 위험한 교훈을 얻었습니다. '안전 마지노선'과 '방위 주문 극대화'가 충돌할 때, 협상 의지가 더 강한 기업이 더 안전한 투자 대상이 되는 경우가 많습니다. 반면, 원칙을 고수하는 기업은 하룻밤 사이에 '공급망 위험'이라는 낙인이 찍히고 투자자들이 '재평가' 버튼을 누르게 될 수도 있습니다.
IV. 진정한 중추신경계: 마이크로소프트, 구글, 그리고 "클라우드 기반 군산복합체"
만약 OpenAI와 Anthropic이 이 전쟁의 "두뇌"라면, 마이크로소프트와 구글은 진정한 중추신경계라고 할 수 있습니다.
클라우드 서비스가 없었다면 모든 대형 모델과 네이티브 AI 도구는 그저 파워포인트 프레젠테이션에 불과했을 것입니다.
Microsoft Azure: 오피스 클라우드에서 킬체인 운영 체제까지
AP 통신과 여러 기관의 조사에 따르면, 2023년 10월 이후 이스라엘 군의 Azure 기반 머신러닝 도구 사용 규모가 불과 몇 달 만에 수십 배 급증하여 최대 64배에 달했으며, 전체 AI 함수 호출 횟수는 200회에 육박하는 것으로 나타났습니다.
동시에 대규모 데이터 저장 용량은 미국 의회 도서관 수준에 필적하는 수준에 도달했습니다.
이러한 컴퓨팅 능력은 대량의 통신 내용을 기록하고 번역하고, 감시 인프라에서 얻은 신호 정보를 처리하며, Lavender 및 Gospel과 같은 이스라엘 현지 AI 시스템과 연동하여 표적 목록과 위험 평가를 자동으로 생성함으로써 "표적 생산 라인"의 처리량을 크게 늘리는 데 사용됩니다.
마이크로소프트는 여론과 직원들의 압력에 굴복하여 일부 이스라엘 군부대(특히 감시 관련 부대)에 대한 서비스 제공을 축소했지만, 핵심 사업인 클라우드 및 AI 관련 계약은 계속 유지하여 회사에 상당한 상업적 수주를 안겨주었지만, 그 대가로 회사 평판에 큰 손상을 입혔다.
구글 프로젝트 님버스: 전시 상황에서 가장 높은 정치적 위험 부담을 안고 있는 클라우드
2021년부터 구글과 아마존은 '프로젝트 님버스'를 통해 이스라엘 정부와 군에 컴퓨팅, 스토리지, 머신러닝 도구를 포함한 약 12억 달러 상당의 통합 클라우드 인프라를 제공했습니다. 이에 대해 직원, 학계 관계자, 인권 단체들은 지속적으로 경고해 왔습니다.
님버스의 범용 클라우드 및 AI 기능은 감시 및 군사 목표 선정에 매우 적합하지만, 구글은 해당 계약에 "공격적인 군사적 용도는 포함되지 않는다"고 거듭 강조했습니다.
에픽 퓨리가 도입될 당시, 님버스 같은 클라우드 플랫폼이 이스라엘 군의 복잡한 표적 계획, 전장 시뮬레이션, 실시간 정보 융합을 지원하는 핵심 컴퓨팅 기반이라는 것이 널리 알려져 있었지만, 구체적인 호출 경로와 사례 세부 정보는 기밀로 유지되었습니다.
위험 관점에서 보면, 이는 구글이 중동 안보 고객으로부터 안정적인 수익을 얻기 위해 "약간 더 높은 정치적 위험 프리미엄"을 지불하고 있다는 것을 의미하며, 해당 프로젝트를 둘러싼 회사 내부의 항의와 사임은 투자자들에게 이것이 단순한 기업 클라우드 계약으로 간주될 수 있는 사업이 아니라는 점을 상기시켜 줍니다.
V. 이스라엘의 AI 킬 공장: 라벤더 로직의 이식성
인공지능이 전장을 어떻게 변화시키고 있는지 이해하려면, 이스라엘에서 개발된 가장 논란이 많은 시스템 중 하나인 '라벤더, 가스펠, 그리고 아빠는 어디에?' 시스템부터 살펴보는 것이 좋을 것입니다.
+972 Magazine과 Local Call이 실시한 설문조사에 따르면 다음과 같습니다.
"라벤더"는 가자 지구의 거의 모든 성인 남성을 대상으로 행동 및 관계 분석을 실시하고 각 개인에게 1에서 100까지의 "무장단체 구성원 의심 점수"를 부여하여 무장단체 구성원으로 의심되는 대상을 최대 37,000명까지 신속하게 식별했습니다.
"Gospel"은 건물과 기반 시설에 초점을 맞춰 군사 목적으로 사용되는 것으로 판단되는 건물을 자동으로 표시하고 공군이 대량으로 활용할 수 있는 폭격 목록을 생성합니다.
"아빠는 어디에?"는 시간적 차원을 최적화하는 역할을 합니다. 즉, 지정된 목표물이 집에 돌아오는 시간을 추적하고, 가족과 함께 집에 있을 때 공격을 시작합니다. 이는 "성공적인 제거" 확률을 크게 높이는 동시에 가족 구성원과 이웃을 위험에 빠뜨립니다.
최전선에 있는 한 이스라엘 정보 관계자는 인터뷰에서 라벤더가 추천하는 목표물에 대한 사람의 검토는 고작 몇십 초 정도의 "형식적인 시간 때우기"에 불과한 경우가 많다고 인정했다.
인권 단체와 유엔 전문가들은 이 시스템을 "고도로 자동화된 대량 학살 공장"이라고 묘사하며, 알고리즘 편향을 증폭시키고, 인간의 판단 여지를 축소하며, 민간인 사상자 위험을 증가시키는 구조적 문제점을 지적했습니다.
공개된 보고서들은 이 시스템이 가자 전쟁과 더욱 명확하게 연관되어 있다고 지적하는 반면, 이란 전선에서의 구체적인 적용에 대한 공식적인 입장은 오랫동안 침묵을 지켜왔다는 점을 강조하는 것이 중요합니다.
하지만 기술적 전파 가능성이라는 관점에서 볼 때, 이란 내의 충분한 통신 데이터, 위치 궤적, 사회적 관계망만 확보된다면 라벤더의 논리를 테헤란의 권력 엘리트층에 적용하는 것이 불가능한 일은 아닙니다. 바로 이러한 이유 때문에 많은 분석가들은 에픽 퓨리가 "가자 지구식 알고리즘 살상 공장"이 주권 국가의 수도로 확산된 실험과 같다고 보고 있습니다.
VI. 시장 및 규제: AI-클라우드-방위 복합체의 가격 결정력
이러한 조각들을 모아보면, "실리콘 밸리"와는 전혀 다른 그림이 그려집니다.
한편으로는 오픈AI로 대표되는 대형 모델링 기업들이 금지선을 어느 정도 양보할 의향이 있으며, 국방 예산 분야에서 빠르게 입지를 확보했습니다. (로이터+2)
반면, 더욱 엄격한 보안 원칙을 고수했던 앤트로픽은 국방장관에 의해 "공급망 위험"이라는 구실로 퇴출당했고, 이는 업계 전체에 "유일한 구매자와 정면으로 맞서지 마라"는 실질적인 교훈을 남겼다. (axios+5)
가장 아래층에는 마이크로소프트와 구글 같은 클라우드 거대 기업들이 있는데, 이들은 GPU 클러스터와 기밀 클라우드 네트워크를 사용하여 현대 전쟁의 "운영 체제"를 구축하고, 전시 AI에서 발생하는 수익의 대부분을 흡수하는 동시에 평판 및 규제 위험도 점점 더 높아지고 있습니다.
자산 가격 결정 관점에서 볼 때, 이는 더 이상 단순히 "기술주 대 방산주"라는 이분법적 대립이 아니라 새로운 AI-클라우드-방산 복합체입니다.
전술적으로 저비용 드론 편대, 자동화된 표적 생성, 인공지능 기반 의사결정 시스템은 전통적인 강대국의 억지력을 약화시키고 있으며, 이로 인해 값비싼 5세대 전투기와 항공모함 전투단은 이전 세대의 자본 집약적인 자산처럼 보이게 되었습니다.
업계에서 대규모 모델과 클라우드 공급업체들은 군사 분야를 통해 극소수의 업체만이 누릴 수 있는 경기 역행적 현금 흐름을 확보했으며, "보안 및 기밀 유지"라는 명목하에 완전히 투명하게 공개하기 어려운 수익의 블랙박스에 진입했습니다.
정치적으로 "국가 안보 의제에 더 부합하는 기업"이 주요 계약 수주에 결정적인 변수가 될 때, 기업의 윤리적 마지노선 준수는 체계적으로 무시될 것이며, 이러한 유인 구조는 미래의 모든 기업가와 투자자들에게 암묵적으로 기억될 것이다.
이란의 전장은 서막에 불과할지도 모릅니다. 다음 전쟁이 대만 해협에서 발발하든, 동유럽에서 일어나든, 아니면 중동의 다른 지역에서 일어나든, 전쟁의 속도를 진정으로 결정하는 것은 더 이상 탱크의 수나 포병의 구경만이 아니라, 페타바이트 규모의 기밀 데이터로 훈련된 모델과 수많은 GPU 랙에 연결된 클라우드 컴퓨팅이 될 것입니다.
문제는 우리가 점점 더 많은 킬 체인을 소수의 대형 모델 및 클라우드 기업에 아웃소싱하기 전에, 글로벌 규제와 민주주의가 다음과 같은 질문에 진지하게 답할 시간이 아직 남아 있느냐는 것입니다. 알고리즘 추천이 실제 전투에서 일련의 폭발 좌표로 변할 때, 이러한 결정에 대한 책임은 누구에게 있는가?

