세계 최초의 본격 AI戰, 미국·이스라엘의 이란 공습에 대해 우리가 쉽게 착각하는 건, 인간이 전쟁을 결정하고 AI는 이를 도와줄 뿐이라고 믿는 것이다. AI가 전쟁 효율을 위한 도구란 관점이다. 그들은 말한다 "AI가 미사일 버튼을 누른 건 아니잖아?"
틀렸다. 멀찌감치 나와서 보면, 표적을 선정한 AI가 인간에게 미사일 버튼을 외주 준 모양새다. 즉, 인간은 AI의 신호에 따라 버튼을 누르는 하청 노동자다. AI는 이 하청 노동자들에게 인간 세상의 손실, 즉 '윤리적 리스크'를 외주 준다. 단순화하면 AI 전쟁의 수행 구조는 이렇다. 전쟁 결정권자(트럼프)가 결정을 내리고 AI가 모든 계획을 수립한다. 인간은 AI의 손발이 되어 미사일 버튼을 누른다.
'마가(MAGA)' 진영의 억만장자 피터 틸이 창업한 군사 데이터 분석 AI 기업 팔란티어가 개발한 '메이븐 스마트 시스템(MSS)'은 이번 미국·이스라엘 공습의 주연급이다. 히브리어로 '전문가'를 의미하는 메이븐(Maven)에 탑재된 앤트로픽社의 AI '클로드'는 군사 기밀 데이터를 대량으로 먹어치운 후, 군사 작전에 필요한 실시간 표적 설정 및 우선순위를 선정해 인간에게 제시한다. 메이븐은 단 20명의 팀으로 2000명 규모의 포병 부대가 할 일을 해치울 수 있다. 그리고 그 20명은 메이븐의 수족이 된다.
이건 마치 아마존이나, 쿠팡같은 기업의 물류 시스템과도 비슷하다. 쿠팡의 AI 시스템은 물류센터 안에서 어떤 작업자(혹은 로봇)가 상품을 집어올 것인지, 여러 상품을 집어오기에 가장 짧고 빠른 이동경로는 무엇인지, 어떤 크기의 포장재에 담을 것인지 등 작업자가 알아야 할 세부사항을 실시간으로 하달한다. 인간은 부품이 되어 물건을 나르면 된다. AI 기술 덕분에 아마존이나 쿠팡은 수백만 건의 주문을 빠르게 처리하면서도 직원들이 효율적으로 일할 수 있다.
여기에서 인간은 의약품의 첨부문서나 가전 제품의 사용 설명서의 일부처럼 존재한다. 미국의 'AI전쟁 매뉴얼' 속 도구이자 수행 로봇으로 존재하는 인간처럼. 인간이 지구를 지배하는 과정에서 가장 유용했던, 인간만이 가졌던 유일무이한 특징은 뇌, 즉 생각하고 판단할 수 있는 능력이다. 유발 하라리가 말한 '인지 혁명'의 핵심인 인간의 뇌를 AI가 대체하는 건 '인간'이 가진 유일한 아우라가 붕괴한다는 걸 의미한다. 실제로 이 전쟁에서 살아있는 유기체처럼 굴고 있는 건 AI이고, 기계처럼 돌아가는 건 사람이다. 기계와 사람이 전복되고, 기계와 사람의 경계가 무너진다.
인간은 이제 생각할 필요가 없다. 메이븐은 인간의 '뇌'를 대신하고, 이 '뇌'가 하달한 표적을 인간은 순식간에 수행한다. 마치 전쟁 시뮬레이션 게임과 같다. 미국은 단 며칠만에 1000개의 목표물 분석을 마치고 이란 최고지도자 하메네이 은신처를 비롯한 900여 개의 표적을 상대로 미사일 정밀타격을 실시했다. 이 정도 표적 규모를 인간이 분석하고 설정했다면 최소 수개월이 걸릴 일이다. AI는 이걸 단 며칠만에 끝내고 그의 수족(인간)에 신호를 보냈다. 뇌가 제거된 수족(인간)은 윤리적 고뇌와 표적의 적정성 판단 같은 번거로운 수고를 '기계의 속도' 속에 갈아넣고 미사일 버튼을 누른다.
그렇다. 미국은 "AI는 표적을 제시할 뿐 직접 사람을 죽이는 건 아니다"라는 변명을 유지하기 위해 인간을 기계로 만들어버린 것이다. 수개월 걸릴 전쟁은 이제 몇 시간만에 끝내는 스타크래프트 게임이됐고, 미국의 엘리트 장교들은 '자동사냥'을 즐기는 게이머로서 존재한다. '현질'은 뇌를 AI 에게 외주 준 인간의 몫이다.
AI가 전쟁에 본격 활용된 것은 2023년 하마스의 이스라엘 본토 공격으로 시작된 전쟁 때였다. 이스라엘군은 하마스와 팔레스타인 군사 조직으로 의심되는 인물과 건물을 식별하고 잠재적 타겟으로 선정하는 '라벤더' 프로그램을 가동시켰다. 이 초기 군사용 AI 시스템의 성과는 놀라웠다. 주어진 시간 내에 달성할 수 있는 적 사망자 수를 획기적으로 증폭시켰다.
이 시스템의 압권은 AI가 분류한 표적 계급도에서, 하급 무장세력들에겐 정확도를 높인 '스마트 밤'이 아니라 유도 기능이 없는 재래식 폭탄을 사용하도록 했다는 점이다. 하급 무장 세력들에게는 '비싼 폭탄'을 쏠 필요가 없기 때문이다. '싸구려 폭탄'은 콜레트럴 데미지(부수적 피해)를 낳는다. 즉, 표적 외 민간인을 더 많이 죽인다. 이것이 바로 AI식 효율성이다. 고급 표적은 비싼 정밀 타격으로, 하급 표적은 값싼 무차별 타격으로.
2023년 이스라엘 'AI전쟁'에서 미국이 배운 건, 더 빠르게, 더 많은 표적을, 더 정밀하게 만들어 최단 시간에, 최대의 사망자를 내야 한다는 것이었다. 물론 미국 정부와 의회는 AI의 전쟁 활용이 초래한 '질서 있는 카오스'에 놀란 나머지 이런저런 법적 제도적 장치를 마련했다. 그러나 '한 손으로는 악수하고 한 손으로는 칼을 든' 자유주의 국가의 흔한 '이중성'은 여지없이 드러났다. '노동 없는 시대'와 같은 AI의 장밋빛 미래를 말했던 실리콘밸리의 선한 양들과, 미국 전쟁부의 AI시스템 계약을 따내려 분주히 뛰고 있는 실리콘 밸리의 늑대들은 같은 얼굴을 갖고 있다. 한편에서 AI 전쟁을 우려하고 있는 같은 시간에, 미 국방부는 군사 기술 스타트업에 수십억 달러를 쏟아부었고, 이스라엘의 '라벤더' 시스템과 비교할 수 없는 메이븐을 완성해 대(代)이란전을 AI 살인 기술의 실험장으로 만들었다.
그렇다. 정치적 목표조차 불분명한 이 전쟁에서 유일하게 식별할 수 있는 '목표'는 'AI를 전장에 적용하는 실험'이다. 그리고 이 실험은 매우 성공적이다. 하지만 전쟁기계의 과시는 다른 전쟁기계를 불러온다. 이 전쟁을 목격한 중국과 러시아가 얼마나 깜짝 놀랐을지 상상해보자. 그들은 미국의 AI시스템 수준의, 단 며칠만에 적을 제거하고 인간을 살해할 수 있는 능력을 가진 자체 AI를 개발해 실전에서 검증하고 싶은 욕구에 시달릴 것이다. 미국의 AI 전쟁이 쏘아올린 작은(?) 공이다. 이제 모두가 '살상을 위한 AI'를 개발하고 소유하고 싶어할 것이다.
AI의 치명적 단점은 '실수할 가능성이 있다'는 점이다. 인간이 실수할 수 있는데 그 인간을 닮도록 만든 AI에게 어찌 실수가 없겠나. 하지만 AI의 실수는 윤리적 책임감을 희석시킨다는 점이 더 고약하다. 이란의 한 초등학교에서 '누군가'의 공습으로 최소 175명의 어린 아이가 폭사당한 사실은 예사롭게 보이지 않는다. 이스라엘의 '라벤더'는 10% 정도의 오류(실패) 확률을 보였다고 한다. 미국의 메이븐 시스템은 어떨까. 100% 무오류의 시스템이란 없다. 메이븐이 분석한 1000개의 타깃 중 999개가 확실했고, 단 한 개의 초등학교가 포함돼 있었다면? (NYT는 이 폭격이 미군의 표적 오인에 의한 것일 가능성을 제기했다.)
자, 그 책임은 이제 누가 어떻게 지게 될 것인가?
터미네이터의 시대가 올 것이라고 하지만, 아니다. 영화 속처럼 스카이넷(AI)이 인간 절멸을 위해 스스로 핵버튼을 누르는 터미네이터의 시대는 오지 않는다. AI에 뇌를 맡긴 인간 스스로가 핵버튼을 누르는 시대가 '스카이넷'의 시대보다 먼저 올 것이기 때문이다. 그리고, 그 다음 시대는 없다. 전쟁이 나도 돌도끼가 사용될 시대가 될 거다. 그게 싫다면 인류는 이제 새로운 '제네바 협정2.0'을 만들기 위해 서둘러야 한다. 하지만 여전히 국제 사회의 논의는 더디다. AI 기계의 속도를 따라갈 수 없기 때문이다. 기술에 휘둘려 허둥대는 인간, 우린 100년 전 세계1차대전과 2차대전을 통해 그 끔찍한 우리의 모습을 목격한 바 있다. 어찌해야 하는가. 국제 논의의 실상을 다룬 기사를 첨부한다. (☞"기계야, 알아서 사람을 죽여라" 무주공산 지구, 활개치는 AI 무기)




전체댓글 0