![]() |
트럼프 시대 이란전쟁과 군사 AI 활용 확대를 상징/instagram |
AI 기술이 국가 감시 체계로 변질될 수 있다는 경고가 커지는 이유는 단순히 기술이 강력해졌기 때문만이 아니다. 더 본질적인 이유는, 국가가 전쟁과 안보를 명분으로 AI의 활용 범위를 빠르게 넓히는 동안, 기업이 내세운 윤리 기준과 안전장치가 점점 국가 권력의 요구와 정면 충돌하고 있기 때문이다. 미국 정부는 2025년 이후 AI를 행정 효율화 도구를 넘어 국가안보 핵심 자산으로 재정의해 왔고, OpenAI는 2025년 6월 ‘OpenAI for Government’를 출범시키며 미국 공공부문 전반에 자사 AI 도입을 확대하겠다고 밝혔다. Anthropic 역시 2025년 8월 국가안보·공공부문 자문위원회를 만들고, 같은 해 7월 미 국방부와 최대 2억 달러 규모 계약을 발표하며 “민감한 국가안보 업무에 적합한 AI”를 강조했다. 즉 빅테크는 겉으로는 윤리를 말하면서도, 동시에 국가안보 시장으로 깊숙이 들어가고 있다.
문제는 여기서부터다. 정부는 AI를 더 빨리, 더 넓게, 더 깊게 쓰려 하고, 기업은 최소한의 사용 제한선을 남겨 두려 한다. 그러나 전시 체제나 준전시 체제가 시작되면 이 경계선은 급격히 무너진다. 미국 국방 당국은 2025년 4월 AI를 국가안보 경쟁의 핵심으로 규정하며 채택 속도를 높여야 한다고 공개적으로 밝혔고, 2026년 1월 공개된 전략 문서는 군의 AI 우위를 “더 치명적이고 더 효율적인 전투력”과 직접 연결했다. 반면 Anthropic은 2026년 2~3월 미 정부와의 충돌 과정에서, 자사 모델 Claude가 국내 대중감시나 완전 자율 치명무기에 쓰이는 데 반대한다는 입장을 고수했다. 여기서 드러나는 건 윤리 대 기술의 충돌이 아니라, 사실상 민간이 설계한 제한선을 국가가 안보를 이유로 밀어내는 구조다.
이란 전쟁 국면은 그 위험을 더 선명하게 보여준다. 워싱턴포스트와 디펜스뉴스 보도에 따르면, 미국의 이란 작전에서 Anthropic의 Claude는 Palantir의 Maven 체계와 결합돼 표적 우선순위 지정과 좌표 생성에 활용됐고, 전쟁 초기 24시간 동안 수백 개의 타격 좌표 생성과 1,000개 이상 표적 공격 지원에 기여한 것으로 전해졌다. 이는 AI가 더 이상 보고서 요약이나 정보 보조 수준이 아니라, 실질적 전장 판단의 속도와 범위를 밀어 올리는 도구가 됐다는 뜻이다. 그리고 바로 이 지점에서 감시의 문제와 전쟁의 문제가 만난다. 전장에서 표적을 분류하고 위험도를 예측하는 시스템은, 평시에는 사람·집단·행동 패턴을 분류하고 위험도를 예측하는 감시 시스템으로 거의 그대로 전용될 수 있기 때문이다. 표적화 기술과 감시 기술은 본질적으로 같은 데이터 논리, 같은 분류 논리, 같은 예측 논리를 공유한다는 점에서 경계가 매우 얇다.
그래서 오늘의 쟁점은 “AI가 감시에 쓰일 수 있느냐”가 아니라 “누가, 어떤 기준으로, 어디까지 막을 수 있느냐”다. 국방부는 오래전부터 AI 윤리 5원칙, 즉 책임성·형평성·추적 가능성·신뢰성·통제 가능성을 내세워 왔고, 2024년 책임 있는 AI 이행 경로 문서에서도 기존 법과 윤리 체계 안에서 AI를 통제하겠다고 밝혔다. Anthropic 역시 자사의 Responsible Scaling Policy를 통해 고위험 모델에는 더 강한 안전장치를 적용하겠다고 했고, OSTP 제출 문서에서는 국가안보 목적의 AI 도입도 별도의 거버넌스와 위험관리 틀 안에서 이뤄져야 한다고 주장했다. 그러나 문제는, 이런 원칙이 존재한다는 사실과 그것이 실제 권력 앞에서 버텨낸다는 사실은 전혀 다르다는 점이다. 전시 상황, 대테러 명분, 사이버 위협, 외국 정보전 대응 같은 문구가 붙는 순간 국가 권력은 예외를 요구하고, 기업은 계약과 애국 프레임, 시장 접근 압력 속에서 후퇴하기 쉽다.
OpenAI도 예외는 아니다. OpenAI는 2025년 대정부 사업 확대와 함께 미국의 AI 경쟁력과 국가안보 우위 강화를 강조했고, 2026년 2월에는 국제안보 질서를 다룬 자체 보고서에서 AI가 억지, 정보, 군사 의사결정, 국가 역량 전반을 바꿀 것이라고 분석했다. 이 말은 현실적으로 맞다. 하지만 이런 언어는 동시에 AI를 더 이상 일반 소비자 기술이 아니라 전략 자산으로 보는 국가의 시선을 강화한다. 전략 자산이 된 기술은 규제 대상이면서 동시에 통제 대상이 되고, 통제 대상이 된 순간 시민의 자유보다 국가의 필요가 우선하기 시작한다. 감시국가는 어느 날 갑자기 철문을 열고 등장하지 않는다. 대부분은 “안전”, “효율”, “안보”, “위험 예측”이라는 합리적 표현을 달고 조금씩 제도 속으로 들어온다.
결국 지금의 경고는 과장이 아니다. 정부의 광범위한 기술 활용 요구와 기업의 윤리 가이드라인이 충돌하는 과정은, 단순한 정책 다툼이 아니라 누가 AI의 한계를 결정할 것인가를 둘러싼 권력투쟁이다. 이란 전쟁 같은 실제 전장에서 AI가 적극 활용되는 순간, “전쟁용 예외”는 너무 쉽게 “평시용 감시”로 번질 수 있다. 한 번 국가안보의 이름으로 정당화된 분류 시스템, 예측 시스템, 감시 시스템은 되돌리기 어렵다. 그래서 지금 필요한 질문은 AI가 유용하냐 아니냐가 아니다. 전쟁을 핑계로 국가가 시민을 더 정밀하게 읽고, 더 빠르게 의심하고, 더 자동적으로 분류하게 되는 체제를 어디서 멈출 것인가다. 그 선을 못 그으면, 내일의 감시국가는 혁명처럼 오지 않는다. 업데이트처럼 온다.
참고문헌
- OpenAI, Introducing OpenAI for Government, 2025.06.16.
- OpenAI, Response to OSTP/NSF RFI on the AI Action Plan, 2025.03.13.
- OpenAI, AI and International Security: Pathways of Impact and Key Uncertainties, 2026.02.06.
- Anthropic, Anthropic Response to OSTP RFI, 2025.03.06.
- Anthropic, Anthropic and the Department of Defense to Advance Responsible AI in Defense Operations, 2025.07.14.
- Anthropic, Introducing the Anthropic National Security and Public Sector Advisory Council, 2025.08.27.
- Anthropic, Responsible Scaling Policy v3.0, 2026.02.24.
- U.S. Department of Defense, Defense Officials Outline AI’s Strategic Role in National Security, 2025.04.24.
- U.S. Department of Defense, DoD Adopts 5 Principles of Artificial Intelligence Ethics, 2020.02.25.
- U.S. Department of Defense, Responsible AI Strategy and Implementation Pathway, 2024.06.
- U.S. Department of War, Artificial Intelligence Strategy for the Department of War, 2026.01.09.
- The Washington Post, Anthropic’s AI tool Claude central to U.S. campaign in Iran, 2026.03.04.
- Defense News, Deadly Iran school strike casts shadow over Pentagon’s AI targeting push, 2026.03.24.
Socko/Ghost
