AI가 죽일 사람 표적 알려주는 전쟁…책임이 사라졌다

[다시! 리영희] 기계의 속도로 죽이고, 인간의 언어로 부인한다 : AI 전쟁 운영체제, 가자에서 이란까지, 그리고 한반도

알고리즘에게 그것은 표적이었다. 이란혁명수비대 해군 기지에 인접한 군사 관련 시설. 데이터베이스가 그렇게 분류하고 있었다. 2026년 2월 28일, 미국과 이스라엘 합동 작전 '장대한 분노'(Epic Fury)의 첫날, 이 좌표가 타격 목록에 올랐고, '처리'되었다. 현실에서 그것은 여자 초등학교였다. 2015년 개교. 인접 기지는 공습 수년 전 이미 폐쇄. 2016년 학교와 기지 사이에 담장이 세워져 별도 출입구까지 설치된 상태였다.

약 170명이 사망했고, 대다수는 어린이였다. 알고리즘은 갱신되지 않은 데이터를 현재의 표적으로 처리했다. '오폭'이 아니었다. 시스템은 설계대로 작동하여 학교를 '정밀 폭격'했다. 같은 날 24시간 동안 1000개 이상의 표적이 이런 식으로 '처리'되었다. 이 속도는 인간의 판단 능력이 아니다. 기계의 처리 능력이다.

리영희 선생은 <전환시대의 논리>에서 베트남전의 "정밀 폭격"이라는 공식 언어를 해체하여 그 아래의 민간인 학살을 드러냈다. 반세기 후, 같은 단어가 알고리즘의 언어로 돌아왔다. 다만 이제 그 언어를 인간이 아니라 기계가 생성하고, 속도가 인간의 검증 능력을 초과한다. 이 글은 그 언어의 구조를 해부한다. 어떻게 AI가 전쟁의 운영체제가 되었는가. 그것이 한반도에서 무엇을 의미하는가.

▲2016년 이후, 초등학교와 기지가 분리되어 있었음을 보여주는 위성 사진. )ⓒJTBC 뉴스 갈무리.

가자 ― 알고리즘이 사람 죽이는 법을 학습한 곳

미나브의 어린이들이 어떻게 죽었는가를 이해하려면 가자지구에서 시작해야 한다. 이란 전쟁에서 사용된 AI 전쟁 운영체제는 어느 날 갑자기 만들어진 것이 아니다. 가자지구의 폐허에서 학습되었다.

이스라엘군은 가자에서 일련의 AI 시스템을 가동했다. 하브소라(The Gospel)는 건물을 표적으로 생성했다. 라벤더(Lavender)는 사람을 표적으로 생성했다. 가자 주민 230만 명의 통신 패턴, 이동 경로, 소셜미디어 활동, 사회적 관계망을 분석하여 하마스 등 무장 조직과의 연계 확률을 1점에서 100점으로 점수화했다. 3만7000명이 이 알고리즘에 의해 표적으로 분류되었다.

아빠는 어디에(Where's Daddy?)는 표적으로 분류된 인물이 귀가하는 순간을 포착했다. 가장 안전해야 할 '집'이 폭격의 최적 시점이 되었다. 가족과 함께 있을 때 타격하면 표적이 확실히 제거되기 때문이다. 파이어 팩토리(Fire Factory)는 이 모든 표적에 적합한 무장 드론과 탄약을 자동으로 매칭했다.

이 체인에서 인간은 어디에 있었는가. AI가 생성한 각 표적을 정보 장교가 검토하는 데 소요한 시간은 평균 20초였다. 저급 무장세력 1인당 민간인 15~20명의 사망이 '허용 가능한 손실'로 사전 설정되었다. 인간은 개입했다. 그러나 통제한 것은 최종 승인 버튼이었을 뿐, "누가 표적인가"를 결정한 알고리즘 자체가 아니었다.

여기서 일어난 것은 개별 무기의 자율화가 아니다. 전쟁 자체의 인공지능 운영체제화다. 위성·드론·통신 감청 등 이질적인 데이터가 하나의 플랫폼에 통합되고, 알고리즘이 표적을 생성하며, 타격 자산이 자동 배정되고, 결과가 다시 알고리즘에 환류되어 다음 표적의 정확도를 높인다. 이 순환 전체가 기계의 속도로 돌아간다. 개별 드론이나 미사일이 자율적인가 아닌가는 부차적 질문이다. 본질적 질문은 이것이다. 전쟁의 논리 자체가 소프트웨어에 의해 운영될 때, 인간은 무엇을 통제하고 있는가.

가자에서 AI는 사람 죽이는 법을 학습했다. 인간을 데이터로 환원하고, 민간인 피해를 윤리적 문제가 아니라 파라미터 값으로 처리하는 법을 배웠다. 이 학습은 가자에 머물지 않았다.

우크라이나 ― 전장이 실험실이 된 곳

가자에서 학습된 알고리즘이 다음으로 향한 곳은 러시아의 침략을 받은 우크라이나였다. 다만 환경이 근본적으로 달랐다. 가자는 봉쇄된 식민 공간에서의 비대칭 전쟁이었다. 러시아-우크라이나 전쟁은 고강도 국가 간 전면전이었다. AI 전쟁 운영체제는 이 전혀 다른 환경에서 새로운 것을 학습해야 했다.

미국 AI 방산기업 팔란티어의 데이터 통합 플랫폼이 위성·신호정보·드론 영상을 하나로 연결하여 실시간 전장 인식을 제공했다. 정찰에서 타격까지의 시간이 수 시간에서 수 분으로 단축되었다.

우크라이나 자체 개발 시스템(델타, 크로피바)도 전장에서 진화했지만, 팔란티어 CEO 알렉스 카프는 자사 소프트웨어가 "우크라이나 표적화의 대부분을 담당한다"고 주장했다(TIME, 2024.2.8). 미 제18공수사단장은 "우크라이나가 우리의 실험실이 되었다"고 말했다(에어워즈, 2026.3.18.).

기술은 완성된 채 투입되지 않았다. 전장 자체가 기술을 검증하고 데이터를 학습하는 거대한 실험실이었다. 작전의 실패와 인명 피해는 윤리적 중단의 계기가 아니라 다음 알고리즘의 정확도를 높이기 위한 피드백 데이터로 흡수되었다. 그리고 그 데이터는 우크라이나 병사의 것이 아니라 팔란티어 등 미국 방산테크 기업의 AI 학습 자산이 되었다.

카네기 국제평화재단의 분석이 정확하다. "우크라이나는 시험장인 동시에 마케팅 기회다. 전투 조건에서 제품을 시연하고, '실전 검증'이라는 라벨을 붙여 광고하는 장소"다(카네기 국제평화재단, 2025.12).

가자에서 AI는 사람을 표적으로 분류하고 제거하는 알고리즘을 학습했다. 우크라이나에서 AI는 대규모 전면전에서의 데이터 통합과 킬체인 가속을 학습했다. 두 축의 학습이 합류한 곳이 있다.

베네수엘라 ― 인공지능 운영체제의 첫 실전

2026년 1월 3일, 미군은 '확고한 결의 작전'(Operation Absolute Resolve)을 개시했다. 새벽 2시, 150대의 항공기가 20개 발진지에서 동시에 이륙하여 베네수엘라 전역의 방공망과 군사 인프라를 타격했다.

작전은 두 층위에서 동시에 진행되었다. 첫째, 전자전에 의한 감각 박탈. 레이더가 마비되고, 통신이 차단되며, 전력이 끊겼다. 트럼프 대통령이 "카라카스의 불이 특정한 전문기술에 의해 꺼졌다"고 말한 것은 군사 통신과 레이더에 의존하는 전력 인프라에 대한 사이버 공격을 시사한다. 베네수엘라 군은 싸울 의지가 없어서가 아니라, 싸울 수 있는 감각과 수단을 박탈당했기에 무력화되었다. 총격전이 벌어지기 전에 상대의 대응 능력 자체를 소거하는 비운동성 제압이었다.

둘째, 정밀 생포 작전. CIA가 수개월 전부터 베네수엘라에 침투하여 마두로의 이동 패턴, 수면 장소, 식사 습관, 경호 동선을 추적했다(NBC, 2026.1.15). 이 '삶의 패턴' 데이터가 팔란티어의 메이븐 스마트 시스템(MSS)에 유입되었다. MSS에 앤트로픽의 AI 모델 '클로드'가 통합되어 위성 영상, 레이더 감청, 소셜미디어 데이터를 융합하여 마두로의 위치뿐 아니라 이동 예측까지 수행했다. 이것이 메이븐 스마트 시스템의 첫 실전 투입이었다(월스트리트저널, 2026.2.15).

작전 시간(새벽 2시)은 지휘관의 직관이 아니라 AI가 수천 번의 시뮬레이션을 통해 도출한 최적해였을 가능성이 높다. 미 전쟁부 AI 전략 문서에 등장하는 '디지털 트윈'(Digital Twin) 개념이 여기서 작동했을 것으로 추정된다. 디지털 트윈이란 현실의 대상(건물, 공간, 인간의 행동 패턴)을 디지털 공간에 실시간으로 동기화하여 재현한 운영 모델이다.

특수부대원들은 낯선 적진에 들어간 것이 아니었다. 이미 디지털 트윈 속에서 수백 번 성공한 시나리오를 물리적 공간에서 한 번 더 재생했을 뿐이다. 훈련과 실전의 경계가 붕괴된 지점에서, 전쟁의 불확실성은 기술적으로 소거된다.

특수부대가 요새화된 군사 기지에 진입하여 현직 대통령 니콜라스 마두로를 침실에서 생포했다. 32명의 쿠바 군사 및 정보 요원이 사살되었다. 마두로 대통령 부부는 미 해군 함정 이오지마호로 이송되어 뉴욕 맨해튼 연방법원에 섰다. 마두로는 법정에서 "나는 베네수엘라의 대통령이며, 나 자신을 전쟁포로로 간주한다"고 말했다.

가자에서 '대량 처리 모드'로 작동하던 시스템이, 베네수엘라에서는 '초정밀 생포 모드'로 전환되었다. 유엔 사무총장 안토니우 구테흐스는 "위험한 선례"라고 경고했다(유엔뉴스, 2026.1.3). 그러나 이 작전이 증명한 것은 외교적 선례만이 아니었다. 현직 국가원수가 자국 영토의 요새 안에서 수 시간 만에 생포되어 적국의 법정에 선 사건, AI 전쟁 운영체제가 완전한 주권 국가를 상대로 실전에서 작동한다는 것이 처음으로 입증되었다.

이란 ― 통합판

베네수엘라에서 검증된 시스템이 두 달 후 이란에서 가동되었다. 규모가 완전히 달랐다.

2026년 2월 28일, 미국과 이스라엘 합동 작전 '장대한 분노'가 개시되었다. 첫 12시간에 약 900회의 공습이 수행되었고, 첫 24시간에 1000개 이상의 표적이 타격되었다. 10일째에는 5000개를 넘었다. 최고지도자 하메네이가 첫날 사살되었고, 수십 명의 고위 관료가 동시에 제거되었다. 해군 전력은 사실상 전멸했다.

이 속도를 가능하게 한 것이 메이븐 스마트 시스템이었다. 미 중부사령부 고위 관계자에 따르면, 20명의 표적 분석팀이 2003년 이라크 침공 당시 2000명이 수행한 작업을 처리했다(에어워즈, 2026.3.18). 수십 시간이 걸리던 표적 식별-검증-승인 과정이 수 분으로 단축되었다. 팔란티어 CEO 알렉스 카프는 "미국을 특별하게 만드는 것은 치명적 역량, 전쟁을 수행하는 능력"이라고 말했다(CNBC, 2026.3.12).

미나브의 여자 초등학교는 이 시스템의 산출물 중 하나였다. 알고리즘이 갱신되지 않은 데이터 위에서 작동했고, 폐쇄된 기지를 현재의 표적으로 처리했으며, 인접한 학교는 '부수적 피해' 범주 안에서 허용되었다. 시스템은 오작동한 것이 아니다. 설계대로 작동했다.

여기서 계보가 완성된다. 가자의 표적화 알고리즘, 우크라이나의 데이터 통합과 킬체인 가속, 베네수엘라의 MSS 실전 검증, 이 세 축이 이란에서 처음으로 완전한 주권 국가를 상대로 동시에 가동되었다. AI 전쟁 운영체제는 실험을 종료하고 표준 운영 절차가 되었다.

▲ 팔란티어의 인공지능 시스템 메이븐의 화면. ⓒ팔란티어

"제안했을 뿐이다" ― 책임이 소멸하는 언어

이 전쟁들을 관통하는 공식 언어가 있다. '의사결정 지원 도구'. AI는 타격을 결정하지 않았다, 표적을 제안했을 뿐이다, 최종 결정은 인간이 내렸다는 것이다. 이 언어는 기술적으로 정확하지만, 바로 그 정확성이 책임을 소멸시킨다.

미나브의 어린이들이 사망한 후에도 책임의 소재는 특정되지 않았다. 클로드는 표적을 제안했을 뿐이고, 지휘관은 목록을 확인했을 뿐이며, 앤트로픽은 도구를 제공했을 뿐이고, 정부는 작전을 승인했을 뿐이다. '-뿐'들의 연쇄만 있다. 이 모든 항변이 동시에 참일 수 있다는 것이 이 시스템의 설계 원리다. 책임은 사슬의 어느 한 지점에 머물지 않고, 모든 지점을 통과하면서 증발한다.

리영희 선생은 '반공'이라는 단어가 모든 질문을 차단하는 장치로 기능하는 것을 보여주었다. 반공을 의심하면 그 자체가 용공이 된다. 오늘 '의사결정 지원 도구'라는 네 글자가 같은 기능을 수행한다. 이 언어를 의심하면 "그러면 AI 없이 전쟁하자는 것이냐"는 반문이 돌아온다. 냉전 시대의 우상이 이데올로기였다면, 오늘의 우상은 기술적 정확성 그 자체다. 그 정확성의 기만을 드러내는 것이 리영희 선생이 남긴 과제의 현재적 형태다.

앤트로픽의 사례가 이 구조의 작동 방식을 가장 날카롭게 보여준다. 앤트로픽은 클로드의 군사적 사용에 조건을 달았다. 미국 시민에 대한 대량 감시와 완전 자율무기에는 사용할 수 없다는 것이었다. 두 가지가 주목된다.

첫째, 이 레드라인은 미국 시민에 한정되었다. 이란의 어린이, 가자의 주민, 베네수엘라의 시민은 이 윤리적 경계 밖에 있었다. '의사결정 지원'이라는 언어가 국적에 따라 다르게 적용되는 보편성의 실패다.

둘째, 이 제한적 거부조차 시스템의 관성을 이기지 못했다. 2026년 3월, 미 전쟁부는 앤트로픽을 '공급망 위험'으로 지정했다. 다른 어떤 방산 계약자도 앤트로픽의 기술을 사용할 수 없게 되었다. 거부한 기업이 시장에서 축출되고, 메이븐 스마트 시스템은 전군 공식 시스템으로 격상되었다. 개별 기업의 윤리가 구조를 이길 수 없다는 것이 아니라, 거부 자체가 보복의 대상이 되는 체제가 완성되었다는 것이다. 윤리는 선택 사항이 아니라 퇴출 사유가 되었다.

이 체제에서 통제의 가능성은 어디에 있는가. 기업의 자발적 윤리가 아니라면, 민주적·헌법적 통제, 즉 의회 제정 법률에 의한 규율만이 남는다. 그런데 한국의 국방인공지능법안은 바로 그 법률 자체가 이 운영체제를 규율하는 것이 아니라 합법화하는 방향으로 설계되어 있다. 이것이 이 법안의 근본적 문제이며, 이 운영체제가 향하는 다음 목적지가 한반도라는 사실이 이 문제를 긴급하게 만든다.

한반도 ― 이중의 문턱

이란에서 검증된 AI 전쟁 운영체제가 한반도에 이식되고 있다. 이식의 경로는 구체적이다.

팔란티어는 이미 한국에 깊이 들어와 있다. HD현대의 팔란티어코리아 지분 25.1%를 보유하고 있고, 양사는 무인수상정 '테네브리스'를 공동 개발 중이다. 2026년 다보스포럼에서는 수억 달러 규모 소프트웨어 공급 계약을 체결했고, 2024년 서울 REAIM 정상회의장에서는 테네브리스 모형을 전시했다.

팔란티어는 '책임 있는 AI'를 논의하는 바로 그 자리에서 무인 전투 체계를 마케팅한 것이다. 안두릴은 2025년 아시아 최초로 한국에 지사를 설립하고 HD현대, 대한항공, LIG넥스원과 협약을 체결했으며, 방위사업청과도 첨단 무인체계 공동개발 MOU를 맺었다. 쉴드AI는 퀀텀에어로와 파트너십을 맺고 한국 시장에 진출했다.

이들이 가져오는 것은 무기 하드웨어가 아니다. 전쟁 운영체제 자체다. 선체와 기체는 한국이 만들지만, 그 안의 두뇌(데이터 통합 플랫폼, 킬체인 가속 알고리즘, 임무 자율화 소프트웨어)는 미국 기업이 장악한다. 가자에서 표적화를 학습하고, 우크라이나에서 데이터 통합을 검증하고, 베네수엘라에서 실전 투입되고, 이란에서 표준화된 바로 그 운영체제가 한국의 방산 생태계 안으로 들어오고 있는 것이다.

국방혁신 4.0은 무인 전투 체계의 단계적 자율화를 공식 국방 정책으로 제도화했다. 원격통제형에서 반자율형을 거쳐 완전자율형으로 이행하는 로드맵이다. 이 로드맵은 윤석열 정부에서 수립되었지만, 이재명 정부에서도 이탈하지 않았다. AI 예산은 증액되었고, 첫 민간인 국방부 장관 안규백의 취임 일성은 "50만 드론전사 양성"이었으며, 국방인공지능법안은 여야 초당적 지지 아래 추진되었다. 군사 AI의 확장은 정권을 가리지 않는다.

달라진 것이 있다면 12·3 내란 이후의 개혁이다. 이재명 정부는 국방부 장관 직속 '내란극복·미래국방 설계를 위한 민관군 합동 특별자문위원회'를 구성하여 미래전략, 헌법가치 정착, 방첩·보안 재설계, 군 내 사망사고 대책, 사관학교 개혁의 5개 분과에서 110일간 국방 개혁을 논의했다.

헌법가치 정착 분과는 위법 명령 거부권의 법제화와 계엄법 개정을 권고했고, 방첩·보안 분과는 방첩사 해체를 권고했다. "누가 명령하는가"라는 질문에는 답한 것이다. 필자는 이 헌법가치 정착 분과의 자문위원으로 군인복무기본법상 헌법 가치 구현 방안을 발제했다. 그 경험에서 확인한 것이 있다.

미래전략 분과가 다룬 것은 합동작전사령부 창설, 드론작전사령부 폐지, 전작권 전환, 우주사령부 창설 등 군 구조 개편이었다. AI 경계작전센터를 현장 방문하기도 했지만, 그것은 DMZ 경계 자동화에 관한 것이었다. 알고리즘 표적화의 허용 범위, AI 전쟁 운영체제에 대한 시민적 통제, 자율 살상의 윤리적·법적 규율은 미래전략 분과의 의제에도 없었다.

"어떤 방식으로 전쟁을 수행하는가"라는 질문은 가장 개혁적인 정부의, 가장 야심적인 개혁 기구에서도 제기되지 않았다. 가자에서 학습되고 우크라이나에서 검증되고 이란에서 표준화된 AI 전쟁 운영체제가 한국의 방산 생태계 안으로 들어오고 있는 바로 이 시점에.

이 운영체제가 한반도에서 작동할 때, 두 개의 문턱이 동시에 열린다. 첫 번째는 외부의 문턱이다. AI 전쟁 운영체제가 북한 전체를 '위험 환경'으로 모델링하고, 킬웹 아키텍처를 통해 탐지된 위협에 최적의 타격 자산을 자율적으로 매칭한다면, 가자에서 벌어진 것, 즉 한 인구의 전체적 생활 조건이 체계적으로 표적화되는 논리가 한반도 규모로 복제될 수 있다. AI의 예측이 위기를 예방하는 것이 아니라 위기를 생성하는 자기실현적 순환. 이란 전쟁이 이를 증명했다.

두 번째는 내부의 문턱이다. 이것이 더 즉각적으로 위험하다. 한반도에는 70년간 축적된 반공주의적 인구 분류 인프라가 존재한다. 1949년 조직된 국민보도연맹은 30만 명 이상을 '위험 인구'로 등록했다. 전쟁이 발발하자 이 데이터베이스가 활성화되어, 구금자들이 A, B, C 등급(처형, 선별 처리, 관리)으로 분류되었고, 수만 명이 개별적 행위가 아니라 범주적 귀속에 근거하여 약식 처형되었다. 이 A/B/C 등급 체계는 라벤더의 1-100점 위험 점수화와 구조적으로 동형이다. 분류가 삶과 죽음을 결정했다. 양민증, 도민증, 맹원증이라는 신분증 체계는 전체 인구를 의심의 등급화된 계층으로 범주화했다. 가자의 녹색/파란색/오렌지색 신분증 체계와 같은 구조다.

이 분류 인프라는 전쟁 후 해체되지 않았다. 국가보안법은 "이적 행위"라는 법적 범주를 여전히 유지하고 있다. 이는 AI 시스템이 "위험 패턴"의 파라미터로 계승할 수 있는 분류다. AI 전쟁 운영체제가 이 토양 위에서 작동할 때, 외부의 적과 내부의 위협을 하나의 플랫폼에서 동시에 모델링하는 것이 기술적으로 가능해진다. 한국전쟁 당시 외부 군사 작전과 내부 인구 분류가 동시에 가동되었듯이, AI 전쟁 운영체제는 정확히 이 통합을 수행할 수 있다. 차이는 이제 분류가 인간의 수기가 아니라 알고리즘의 자동 생성으로 이루어진다는 것이다.

2024년 12·3 내란이 이것이 추상적 시나리오가 아님을 보여주었다. 정치적 분류에 기반한 체포 대상자 명단이 작성되었다. 국회의 계엄 해제 의결과 시민의 저항으로 집행되지 않았다. 그러나 AI 전쟁 운영체제가 도입된다면 명단은 더 이상 인간이 수기로 작성하는 것이 아니다. 시스템이 자동으로 위험 점수를 생성하며, '명단'은 연속적이고 자기 갱신되는 알고리즘적 산출물이 된다. 리영희 선생이 비판했던 국가보안법 체제의 분류 논리가, 전투에서 검증된 알고리즘의 속도와 규모를 얻는 것이다.

공식 언어를 해체하는 것

리영희 선생이 <전환시대의 논리>에서 수행한 작업은 공식 언어를 해체하여 그 아래의 현실을 드러내는 것이었다. '정밀 폭격'의 아래에 민간인 학살이 있었고, '전략촌'의 아래에 강제 이주가 있었으며, "소탕 작전"의 아래에 마을의 소각이 있었다. 공식 언어가 현실을 은폐하는 데 성공하는 한, 폭력은 정당화된다.

반세기 후, '정밀 타격', '부수적 피해 최소화', '인적 개입 보장', '의사결정 지원 도구', 이 언어들은 베트남전의 공식 언어와 같은 기능을 수행하되, 하나의 결정적 차이가 있다. 이 언어들은 기술적으로 정확하다. AI는 실제로 결정하지 않았다. 인간은 실제로 승인 버튼을 눌렀다. 그러나 이 정확성 자체가 은폐의 도구다. 정확한 언어가 현실을 은폐할 때, 부정확성이 아니라 정확성의 기만을 드러내야 한다. 이것이 리영희 선생의 방법이 오늘 요구하는 것이다.

멈출 수 있는 장치는 아직 존재하지 않는다. 그러나 설계할 수는 있다. 자동화된 표적 추천에 이의를 제기할 절차. 표적 '처리' 속도가 인간의 검증 능력을 초과할 때 자동으로 멈추는 세이프가드. 민간 피해가 사전 설정된 임계치를 넘을 때 외부 감사가 개입하는 트리거. AI 시스템의 결정을 거부할 수 있는 실질적 중단권. 이것들은 기술적으로 불가능한 것이 아니라, 아직 요구되지 않은 것이다.

사람을 죽이는 세계가 설계된 것이라면, 사람을 살리는 세계도 설계되어야 한다. 설계되지 않은 평화는 작동하지 않는다. 이것이 '평화월딩'(Peace Worlding)이 기술의 문제가 되는 이유이고, 리영희 선생의 우상 파괴가 알고리즘의 언어 앞에서 다시 시작되어야 하는 이유다.

▶ 리영희재단 홈페이지

▶ 리영희재단 뉴스레터 구독신청

전체댓글 0

등록
  • 최신순