본문내용 
(사진=Vision Of Humanity 홈페이지 켑쳐)
- AI 전쟁의 민낯과 국제사회 및 지식인의 행동 촉구 -
2026년 이란 전쟁을 비롯해 우크라이나, 가자 지구의 최전선은 인공지능(AI)과 로봇 기술이 결합된 군사 시스템의 거대한 ‘실험실’이 되고 있다. 목표물 식별부터 타격까지 걸리는 ‘킬 체인(Kill Chain)’을 며칠에서 단 몇 초 단위로 압축하는 AI 시스템의 도입은 전쟁의 룰을 완전히 바꾸어 놓았다. 그러나 속도와 효율성을 맹신하는 이러한 기술적 군비 경쟁은 민간인 학살, 테러 집단으로의 무기 확산 등 인류 전체에 심각한 불행을 초래할 위험을 안고 있다.
▷ 초단기 살상과 무뎌지는 인간의 윤리
미군이 도입한 ‘메이븐 스마트 시스템(MSS)’이나 이스라엘의 AI 타격 시스템인 ‘라벤더(Lavender)’, ‘가스펠(The Gospel)’ 등은 군사 작전의 속도를 한계치까지 끌어올렸다. 피트 헤그세스(Pete Hegseth) 미국 전쟁부 장관은 이번 작전의 목표를 다음과 같이 선언하며 AI 무기화의 본질을 보여주었다.
"maximum lethality, not tepid legality"
("미지근한 합법성이 아닌 최대의 살상력")
하지만 이러한 효율성의 대가는 참혹하다. 미국 기반 인권단체 HRANA에 따르면 2026년 이란 전쟁에서 발생한 민간인 사망자는 1,700명 이상이며, 이 중 약 15%가 아동이다. 미납(Minab)의 한 초등학교에 가해진 폭격으로 7~12세 여학생을 포함해 175명이 사망한 비극은, 1시간에 1,000건의 타격 결정을 내리도록 설계된 AI 시스템이 ‘과거의 낡은 정보’를 걸러내지 못할 때 발생하는 끔찍한 결과를 보여준다.
무엇보다 심각한 것은 기계의 판단에 의존하며 인간의 도덕적 책임감이 사라지는 ‘자동화 편향(Automation Bias)’ 현상이다. 라벤더 시스템을 사용한 이스라엘 방위군(IDF) 정보 장교들은 기계가 내리는 살상 결정에 대해 다음과 같이 증언했다.
"the machine did it coldly, and that made it easier"
("기계는 그것을 냉혹하게 처리했고, 그것이 (결정을) 더 쉽게 만들었다.")
"I had zero value as a human, apart from being a stamp of approval."
("나는 승인 도장이라는 것 외에는 인간으로서의 가치가 전혀 없었다.")
▷ 테러 집단으로의 기술 확산
국가 차원의 군비 경쟁은 필연적으로 비국가 무장 단체와 테러리스트들의 기술 접근성을 낮추는 ‘민주화’의 역설을 낳고 있다. 드론과 AI 모듈의 가격이 하락함에 따라, 2010년에는 단 10개의 비국가 무장 단체만이 드론 무기를 보유했던 반면 2025년에는 17개국 469개 그룹이 드론을 공격에 활용했다. 완전 자율 살상 무기가 개인과 테러리스트의 손에 들어가는 것은 더 이상 공상과학이 아닌 임박한 현실이다.
▷ 유엔(UN), 국가, 지식인은 어떻게 행동해야 하는가
군사 기술의 발전 속도가 이를 통제할 법적·윤리적 거버넌스를 아득히 초월한 현 상황에서, 인류의 파국을 막기 위해 국제사회와 지식인들의 시급한 결단이 요구된다.
❶ 유엔(UN)과 국가의 역할: 구속력 있는 규제 장치 마련
유엔과 각국 정부는 살상 결정에 대한 통제권을 기계에 넘기는 것을 즉각 중단하고, 무기화된 AI에 대한 국제적 규범을 확립해야 한다.
2025년 오스트리아를 비롯한 30개국이 공동 발의하여 156개국의 찬성으로 통과된 UN 총회 결의안은 인공지능과 자율 무기 체계가 무력 사용에 있어 인간의 역할을 훼손하며 다음과 같은 심각한 도전 과제를 제기한다고 경고했다.
"humanitarian, legal, security, technological and ethical perspectives"
("인도주의적, 법적, 안보적, 기술적 및 윤리적 관점")
미국, 러시아, 이스라엘 등 군사 강대국들은 이 결의안에 반대표를 던지며 책임을 회피하고 있으나, 국가는 국제법에 부합하지 않는 완전 자율 무기의 개발 및 배치를 금지하는 구속력 있는 조약을 체결해야 한다.
❷ 지식인과 민간 기업의 역할: 윤리적 거부권 행사 및 시스템 한계 설정
지식인, 법률가, 기술 기업들은 AI 군비 경쟁에 맹목적으로 편승하는 것을 거부하고, 생명 보호를 위한 안전장치를 설계하는 데 앞장서야 한다.
AI 기업 ‘앤스로픽(Anthropic)’의 CEO 다리오 아모데이(Dario Amodei)가 자사의 AI 모델이 치명적 자율 무기에 사용되는 것을 거부하며 국방부의 요청을 반려한 것은 지식인과 기술자가 보여주어야 할 책임감의 좋은 선례다. 국제법학자 다비트 하차트리안(Davit Khacatryan)은 민간인 피해를 막기 위해 지식인과 기술자들이 시스템 내부에 다음과 같은 안전장치를 반드시 설계해야 한다고 촉구했다.
"hard-wired limits on where and when systems may operate, relentless stress-testing under a wide variety of conditions, and the retention of a genuine human veto at every stage"
("시스템이 작동할 수 있는 장소와 시간에 대한 확고한 제한, 다양한 조건 하에서의 끊임없는 스트레스 테스트, 그리고 모든 단계에서 진정한 인간의 거부권 유지")
결론적으로, 전쟁의 승리보다 인류의 생존과 존엄성이 우선되어야 한다. AI가 무자비한 살상 도구로 전락하는 것을 막기 위해 국제사회와 지식인은 기술적 우월주의를 버리고, 시스템에 대한 인간의 절대적 통제권을 회복하는 데 모든 역량을 집중해야 한다.
■ 출처 및 기자 소개
기사 출처: 경제평화연구소(Institute for Economics and Peace, IEP) 산하 플랫폼 Vision of Humanity
원문 제목: How AI is rewriting the rules of modern warfare (2026년 4월 22일 게재)
기자(저자) 소개: 찰스 피치우 (Charles Fitchew)
IEP(경제평화연구소)의 커뮤니케이션 인턴(Communications Intern)으로 활동하고 있으며, 세계 평화 지수 및 테러 지수 등 데이터를 기반으로 국제 분쟁과 기술 발전이 현대 전에 미치는 영향을 분석하여 기고하고 있다. 경제평화연구소(IEP)는 호주 시드니, 뉴욕, 헤이그 등에 지부를 두고 평화와 분쟁의 경제적 가치를 연구하는 세계적인 독립 연구 기관이다.