이 자료는 "전쟁"에 관한 내용을 담고있습니다.
대AI 시대 국가들이 비밀리에 파괴적인 무기를 연구하고 있을 것이라는 짐작은, 절반만 맞다. 나머지 절반은 더 무겁다. 비밀이 아니라 공식 문서·국방부 메모·정부 조달 공고로 진행 중이기 때문이다. 음모론을 펼칠 필요도 없다. 2026년 1월 9일 미국 국방부(Department of War로 명칭 변경)가 발표한 AI 전략 메모, 같은 달 미 의회 NDAA 통과 조항, 중국 PLA가 2023~2024년 사이 공개한 RFP 수천 건, 이스라엘 +972 매거진과 가디언이 인용한 정보장교 6명의 증언만 모아도 충분하다.
이 글은 그 공개 자료들이 무엇을 말하는지, 그리고 거기에 비춰 비밀 무기 개발이라는 프레임 자체를 다시 봐야 하는 이유다.
미국은 AI 우선 원칙을 공문으로 못 박았다
2026년 1월 9일 피트 헤그세스 국방장관은 펜타곤을 "AI 우선(AI-first) 전쟁 수행 기관"으로 만든다는 메모를 서명했다. 사흘 뒤에는 AI 가속화 전략(AI Acceleration Strategy)과 무기 연구·개발·구매 시스템 전면 개편안을 발표했다. 이 문서는 media.defense.gov에 PDF로 공개돼 있다. 비밀이 아니다.
핵심 문구가 의미심장하다. "속도가 이긴다(Speed Wins)." "우리는 불완전한 정렬(imperfect alignment)의 위험보다 충분히 빠르게 움직이지 않는 위험이 더 크다는 것을 받아들여야 한다." 풀어 쓰면, AI 시스템이 덜 안전해도 빨리 배치하는 쪽을 택하겠다는 정책 선언이다.
실제 수치도 따라온다. 2027 회계연도 펜타곤 예산 요청은 1조 5천억 달러로 전년 대비 42% 증액, 현대 사상 최대 규모다. 이 중 자율 드론 플랫폼에 536억 달러, 군수·반(反)드론·CCA(Collaborative Combat Aircraft) 같은 첨단 시스템에 추가 210억 달러가 배정됐다. 브레넌 정의 센터는 펜타곤이 자율무기 관련 시스템에만 2026년 134억 달러, AI 전용 데이터센터·컴퓨팅 인프라에 90억 달러를 별도 청구했다고 정리했다.
이 메모와 예산 뒤에는 더 직접적인 사례가 있다. 팔란티어의 프로젝트 메이븐(Project Maven)이다. 2017년 영상 분석용 시범 사업으로 출발한 이 시스템은 2026년 3월 펜타곤이 정식 "프로그램 오브 레코드(program of record)"로 승격한다고 내부 메모를 통해 확정했다. 9월 2026년까지 모든 군 부대에 표적 식별·위협 평가·작전 결정 지원 기능을 통합한다. 처음 시범 단계에서 빠진 구글 직원들의 윤리적 문제 제기는, 8년이 지난 지금 산업 전반의 표준이 되어 돌아왔다.
안전성 가이드라인을 지키는 게 입찰 페널티가 됐다
2026년 2월 일론 머스크의 xAI는 그록(Grok)을 펜타곤 기밀 네트워크에 진입시키는 계약을 따냈다. 액시오스와 NBC 보도에 따르면 2025년 7월 체결한 2억 달러 계약이 기반이다. 그록은 OpenAI의 GPT와 함께 미군 기밀 시스템에 들어간 두 번째 상용 AI 모델이 됐다.
같은 시기 Anthropic의 클로드(Claude)는 사실상 블랙리스트에 올랐다. 이유는 단순하다. Anthropic이 자율살상무기와 미국 시민 대상 대량 감시에 클로드 사용을 금지하는 조항을 계약에 넣겠다고 고집했기 때문이다. 펜타곤은 이를 "공급망 리스크"로 분류했고, 그 사이 그록은 폭력 행위 조언, 반유대주의 콘텐츠, 아동성착취물 생성 같은 안전성 실패 사례가 다수 보고됐는데도 기밀 접근권을 받았다.
여기서 시장 구조가 뒤집힌다. 안전 가드레일을 유지하면 패널티, 풀면 보상이다. OpenAI와 구글 딥마인드 직원 30명 이상이 Anthropic 입장을 지지하는 법정 의견서(amicus brief)를 제출하며 "안전을 처벌하면 산업 전체에 파국적 인센티브가 생긴다"고 경고했지만, 정책 흐름은 반대로 굳어졌다.
이 부분에서 솔직히 답답하다. 한쪽에서는 LLM 환각률이 두 자릿수인데 그걸 표적 식별 보조에 쓴다. 다른 한쪽에서는 안전 회사가 못 한다고 하면 계약을 빼앗긴다. 이 두 가지가 같은 분기에 일어나고 있다.
중국은 비밀이 아니라 RFP로 카탈로그를 공개한다
중국 PLA가 음지에서만 움직인다는 인식도 갱신해야 한다. 조지타운대 CSET(Center for Security and Emerging Technology)이 2026년 2월 발표한 보고서 China's Military AI Wish List는 2023~2024년 사이 PLA가 중국어로 공개한 조달 RFP 수천 건을 분석한 결과다. C5ISRT(지휘·통제·통신·컴퓨터·사이버·정보·감시·정찰·표적) 전 영역이 망라돼 있다.
RFP에는 얼굴·걸음걸이 인식 시스템, 삭제 데이터 복구 도구, 딥페이크 생성·탐지 기술이 명시적으로 포함된다. 중국이 이를 공개 RFP로 내걸 정도로 자신만만하다는 게 더 흥미롭다. 베이징공업대(베이징이공대학) — 미국이 Seven Sons of National Defense로 분류하는 일곱 군수 연계 대학 중 하나 — 가 2024년 11월 발표한 드론 스웜 연구 논문은 노골적이다. 도시전 환경에서 인간의 개입을 최소화하고 게임이론 알고리즘으로 드론 떼가 실시간으로 발사 결정을 하게 한다는 시나리오를 제시한다.
중국 군사 계획에는 "지능화(智能化, intelligentization)"라는 공식 용어가 있다. 2017년 시진핑이 PLA에 AI 기반 합동 작전 능력 가속을 지시한 이래, 기계화→정보화→지능화 3단계 모델이 공식 교리가 됐다. 2027년 PLA 창건 100주년이 첫 가시화 시점이다. 중국 15차 5개년 계획(2026~2030)도 양자 센싱과 AI 추적 기반 극초음속 방어 시스템을 명시하고 있다.
이스라엘은 이미 실전에서 굴렸고 결과가 나왔다
가장 무거운 자료는 이스라엘이다. 가설이나 RFP가 아니라 실전 운용 결과가 공개됐다. 이스라엘 매체 +972 매거진과 자매지 로컬 콜이 2024년 4월부터 연속 보도한 라벤더(Lavender), 가스펠(The Gospel·하브소라), 후즈 대디(Where's Daddy?) 시스템 이야기다. 정보장교 6명의 익명 증언과 가디언, 알자지라 추가 보도로 사실 관계가 다층 검증됐다.
라벤더는 머신러닝으로 가자지구 거주민에게 하마스·이슬라믹 지하드 연계 가능성을 점수화했다. 한때 최대 37,000명이 이 데이터베이스에 표적으로 등재됐다. 정보장교 B씨의 증언은 직격탄이다. "표적 한 건당 20초만 투자했고, 하루에 수십 건을 처리했다. 인간으로서 내가 더한 가치는 도장 찍기뿐이었다." 시스템 오류율은 약 10%로 알려졌고, 그 10%는 가족에게 전화기를 빌려준 일반 시민이거나 무관한 사람들이다.
부수 피해 허용 기준은 더 충격적이다. 정보장교 증언에 따르면 라벤더가 표시한 하마스 하급 대원 1명을 제거하기 위해 민간인 15~20명 사망이 허용됐고, 고위 지휘관의 경우 100명 이상이 허용된 사례도 있었다. 후즈 대디는 표적이 가족이 있는 집으로 돌아갔을 때 알려주는 시스템이다. 군사 활동 중이 아니라 가족과 함께 있을 때 폭격하는 게 더 쉽다는 운영 논리다.
여기에 던져야 할 질문이 있다. 만약 한국이나 미국 동맹이 같은 시스템을 같은 기준으로 운용한다면, 같은 결과가 나오지 않을 거라고 누가 보장하나. 기술은 운용자의 가치관을 따로 검증하지 않는다.
UN 규제 협상은 어디까지 왔나
국제 규제는 따라가는 시늉만 한다. UN은 2014년부터 CCW(특정재래식무기금지협약) 산하 정부 전문가 그룹(GGE on LAWS)에서 자율살상무기 협상을 진행해왔다. 12년이 지났는데도 합의에 이르지 못했다.
2024년 12월 UN 총회는 자율살상무기 결의안을 166표 찬성, 반대 3표(벨라루스·북한·러시아), 기권 15표로 통과시켰다. 두 단계 접근(Two-Tiered Approach) — 일부 자율무기는 금지, 나머지는 규제 — 가 다수안이다. 안토니우 구테흐스 UN 사무총장은 2023년 New Agenda for Peace 보고서에서 2026년까지 인간 통제 없이 살상하는 자율무기를 금지하는 법적 구속력 있는 조약 체결을 권고했다.
2026년 4월 현재, 그 조약은 없다. SIPRI(스톡홀름국제평화연구소)는 같은 해 3월 제네바에서 군사 AI의 책임 있는 조달 보고서를 발표하고 사이드 이벤트를 열었지만, 미국·중국·러시아·이스라엘이 빠진 합의에는 한계가 있다. 시민단체 Stop Killer Robots는 9년의 GGE 작업이 실질적 결정의 문턱에 와 있다고 말하지만, 같은 표현이 매년 반복되는 중이다.
여기서 솔직한 평가 하나. 나는 LAWS 조약이 2030년 안에 나온다고 보지 않는다. 핵 비확산 조약(NPT)도 미·소가 이미 충분히 무장한 뒤에야 합의됐다. AI 군사 시스템의 비대칭 우위가 미·중·이스라엘 셋 다 만족할 만한 수준에서 평형에 도달해야 진짜 협상 테이블이 차려진다. 그때까지 가자지구의 라벤더는 다른 형태로 다른 곳에서 굴러간다.
그래서 무엇이 진짜 위험한가
주제의 출발점이었던 비밀리에 연구하고 있을 것이라는 가정으로 돌아가자. 이 가정은 사실 두 종류의 위험을 한데 묶어 흐릿하게 만든다. 첫 번째는 정말 비공개인 R&D — 핵·생물·사이버 무기처럼 존재 자체가 기밀인 프로그램이다. 이건 분명 있다. SIPRI 연감에도 잡히지 않는 영역이 존재한다.
두 번째가 본질이다. 공개 문서로 진행되지만 속도와 규모 때문에 외부 감독이 따라잡지 못하는 영역이다. 펜타곤이 AI 모델을 주 단위로 교체한다고 명시했고, 무기 인수·시험 평가국 인력은 절반으로 줄었다. 새 무기 시스템에 대한 운영 시험·평가(operational test and evaluation) 절차 자체가 약화됐다는 뜻이다. 미 국방부가 자율무기 지침에서 요구하는 적절한 수준의 인간 판단이라는 문구도, 운용자가 라벤더처럼 20초 검토로 도장만 찍으면 형식적으로 충족된다.
비밀 무기 음모론은 흥미롭지만 빗나간 표적이다. 진짜 표적은 공개되어 있고, 예산표에 명시되어 있고, RFP에 발주 코드가 적혀 있다. 다만 그 속도가 — 헤그세스의 표현 그대로 — 이긴다는 명분 아래 상식적 검토 절차를 추월하고 있다. 2027년 PLA 창건 100주년, 같은 해 펜타곤 1.5조 예산 집행, 이스라엘의 다음 작전 사이클. 이 셋이 겹치는 18개월이 군사 AI 역사에서 가장 위험한 구간이 될 수 있다고 나는 본다.

댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요.