[해외 DS] 자율 무기, 제2의 핵무기 되기 전에 얼른 규제해야
세계 주요 인사들, 자율 무기 통제에 강한 입장 밝혀
자율 무기 위험성은 인지하고 있으나, 제대로 된 합의 이루어지지 않아
자율 무기, 일단 개발되면 없었던 과거로 돌아갈 수 없어
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.
사람의 개입없이 적을 판별하고 사살하는 무기를 떠올려보자. 자율 무기는 언제 공격할지, 어떤 표적을 적이라고 판단할지 등 모든 선택권이 기계에게 있다. 그러나 자율 무기는 프로그래밍된 기계에 불과하다. 만약 이 무기가 잘못된 결정을 내리면, 누구에게 책임을 물어야하나?
‘지금 당장’ 자율 무기에 합의해야
지난 4월 빈에서 자율 무기를 주제로 한 컨퍼런스가 열렸다. 컨퍼런스에서는 자율 무기의 책임은 누구에게 있으며 자율 무기가 허락된 미래는 어떻게 흘러갈지에 대해 심도 있는 논의가 이루어졌다.
오스트리아 연방총리인 알렉산더 샬렌베르크는 “지금이 우리 세대의 오펜하이머 순간”이라며 제2의 핵무기가 나오지 않도록 자율 무기에 관해 신중해야 한다는 입장을 밝혔다. 또한 전쟁에서 자율 무기에 전권을 부여하는 것을 막기 위해 국제법이 절실히 필요하다고 덧붙였다. 하지만 안타깝게도 법 제정이 제대로 이루어지지 않은 상황이다.
첫 번째 ‘오펜하이머 순간’ 이후 수십 년 동안 냉전이 지속됐고 핵전쟁이라는 공포에서 벗어나지 못했다. 오늘날에도 문명을 붕괴시키고 인류를 멸종시킬 수 있는 위협이 항상 도사리고 있다. 여기에 자율 무기까지 추가되면 위협은 배로 커진다. 어린아이의 체온을 군인의 체온으로 착각하거나 몇 분 만에 도심 광장을 대량 폭격할 수 있는 자율 기계가 존재하는 미래가 펼쳐질 것이다. 법을 제정해야 할 시기는 다음 주, 내년, 10년 후가 아니라 바로 ‘지금’이다.
인간의 통제에서 벗어나고자 하는 무기들
‘킬러 로봇’이라고 하면 터미네이터를 떠올리지만, 실제 킬러 로봇은 컴퓨터 프로그램으로 위장하여 훨씬 더 교묘하게 등장한다. 예를 들어 목표물을 배회하며 기다리다가 공격하는 자살 드론, 목표물을 쫓는 미사일, 대량 살상에 사용되는 군집 드론 등이 있다.
기존 무기는 사람이 언제 어디서 사용할지 결정하는 ‘인간의 통제’ 하에 존재했으나, 점차 무기 설계자들은 사람이 직접 빨간 버튼을 누르지 않고도 무기 스스로 결정을 내릴 수 있도록 훈련시키고 있다. 자율 무기에 제재를 가하는 것은 무기 개발을 지연시킨다는 주장이 있으나, 최소한 자율 무기 사용에 대한 규칙은 만들어져야 한다.
자율 무기는 더 이상 미래 문제가 아니며 우크라이나 전쟁에서 ‘완전 자율 드론’이 사용되었다는 보고가 있었다. 또한 이스라엘 방위군은 하마스 조직원을 추적하고 표적으로 삼기 위해 AI 기반 데이터베이스를 사용하고 있는 것으로 알려졌다.
세계 주요 인사들 “얼른 자율 무기 통제해야”
자율 무기는 이미 뜨거운 논쟁거리가 되었다. 자율 무기의 사용 방법, 윤리, 규제 여부 등을 주제로 한 회의가 지난 몇 년 사이에 기하급수적으로 증가했다. 자율 무기에 관심은 많아졌으나, 아직 제대로 된 합의가 이루어지지 않은 상황이다.
세계 주요 인사들은 자율 무기가 초래하는 위협을 인식하고 있다. 국제인권감시기구(HRW)는 자율 무기 사용이 “국제인권법에 부합하지 않는다”며 국제법 제정을 촉구하는 목소리를 냈다. 또한 킬러 로봇 반대 연합을 공동 설립하여 ‘자율 무기 반대’ 캠페인을 열어 자율 무기에 관해 강한 반대 입장을 표했다. 게다가 작년 10월에는 유엔 사무총장인 안토니우 구테흐스와 국제 적십자 위원회 총재인 미르자나 스폴자릭은 자율 무기에 대 구체적인 제한 방안을 마련해야 한다고 호소했다.
‘자율 무기 합의’에 무관심한 강대국
이러한 노력과 강력한 성명에도 불구하고 법안 마련은 여전히 지지부진한 상태다. 그 이유는 자율 무기에 관심을 가져야 할 국가들이 관심을 보이지 않기 때문이다.
미국 국방부는 자율 무기의 위험성을 인식하고 있으나, 개발과 사용에 대한 명확한 규율을 제정하지 않은 채 뒤에서 조용히 군사 AI 및 자율 무기 기술에 투자하고 있다. 미국 국방부는 중국의 기술 발전에 발맞추기 위해 2023년 말 기준으로 최소 800개의 군사 AI 프로젝트를 진행 중이며 2026년까지 AI 기반 자율 군용 차량을 배치할 계획임을 밝혔다.
미국이 자율 무기 규율에 아예 손놓고 있었던 것은 아니다. 자율 무기에 관한 공개 지침을 발표했으나, 여기에는 허점이 많다는 지적을 받고 있다. 예를 들어 ‘적절한 수준의 인간 판단’과 같이 모호한 정의가 다수 포함되어 있었다. 또한 작년 미국 정부는 자율 무기에 대한 국제적 공감대를 형성하고 군사 AI에 관해 정치적 선언을 했다. 그러나 정작 AI 무기를 개발 중인 중국, 러시아, 이란, 인도 등은 이에 서명하지 않는 모습을 보였다.
자율 무기, 제2의 핵무기 되면 안 돼
오펜하이머는 원자폭탄을 만들면서 “이제 나는 세계의 파괴자, 죽음이 되었다”라는 말을 반복한 것으로 유명하다. 80년이 지난 지금도 핵무기는 여전히 남아 있고, 앞으로 핵무기가 없는 세상을 경험하지 못할 것이다. 우리는 자율 무기라는 또 다른 ‘세계의 파괴자’가 출현하는 상황을 목전에 두고 있다. 기계는 감정을 느낄 수도 인간을 알 수도 없어 진정한 ‘인간적’ 판단을 내릴 수 없다.
기술은 법률을 뛰어넘고 있으며 인류의 모든 것을 뛰어넘기 시작했다. 지금 이 순간 법과 조약을 통해 자율 무기를 통제하지 않으면, 치명적인 자율 무기와 터미네이터와 같은 살인 로봇의 위협으로부터 도망칠 수 없는 미래가 펼쳐질 것이다.
*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.