[해외 DS] AI 핵전쟁 위험, 지금 막지 않으면 늦는다

AI를 활용한 군사력 강화를 추진 중인 미국, 전문가들은 AI-핵무기 시스템 통합의 위험성 경고
인간보다 빠른 의사 결정 가능하지만, 예측 불가능성과 오판 가능성 여전히 존재
AI-핵무기 결합은 인류의 미래를 위협할 수 있어, 인간 중심의 핵무기 관리 기조 유지해야

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.


AI Terminator Future ScientificAmerican 20240619 1
사진=Scientific American

미국 국방부는 AI를 무기 시스템에 통합하려는 계획을 공개적으로 밝혀왔다. 캐슬린 힉스(Kathleen Hicks) 미 국방부 부장관은 지난해 말 펜타곤에서 새로운 AI 전략을 발표하며 “AI를 신속하고 책임감 있게 작전에 통합하는 데 집중하는 이유는, AI가 우리의 의사 결정 우위를 향상시키기 때문이다”고 강조했다.

AI는 방대한 정보를 빠르게 처리하고 분석하여 신속한 결정을 내릴 수 있게 한다. 이미 많은 분야에서 인간보다 훨씬 빠른 처리 속도를 보여주고 있으며, 앞으로 그 격차는 더욱 커질 것으로 전망된다. 또한 이러한 AI의 능력은 핵무기를 포함한 모든 종류의 무기 체계에 적용될 수 있다.

즉 AI는 미래 전장에서 결정적인 역할을 할 것으로 예상되며, 미국은 이러한 AI 기술을 국방 분야에 적극적으로 활용하려는 의지를 보이고 있다. 국방부의 새로운 AI 전략 문서의 부제인 ‘가속화되는 결정 우위’는 이러한 맥락을 잘 보여준다.

AI 군사 활용, 핵전쟁 위험 높인다

하지만 AI의 군사적 활용에 대한 우려의 목소리도 높다. 특히 제임스 존슨(James Johnson)의 저서 ‘AI와 핵무기(AI and the Bomb: Nuclear Strategy and Risk in the Digital Age)’에서는 AI가 핵무기 시스템에 통합되는 미래를 우려하며, AI가 핵무기만큼이나 위험한 무기가 될 수 있다고 주장한다. 또한 샘 넌(Sam Nunn) 조지아주 전 상원의원을 비롯한 많은 전문가들 역시 AI의 군사적 활용이 초래할 수 있는 잠재적 위험에 대해 경고의 목소리를 높이고 있다.

샘 넌 전 상원의원이 공동 설립한 ‘핵위협방지구상(Nuclear Threat Initiative, 이하 NTI)’은 “세계 핵 질서를 위한 7가지 원칙”을 제시한 바 있다. 이 중 긴장 고조 상황에서 지도자들의 의사 결정 시간을 늘리는 것이 중요하다는 것을 강조하는 원칙이 있는데, 이는 핵 위협을 줄이고 상호 안보를 강화하기 위한 핵심적인 요소다.

그러나 AI 도입 확산은 신중한 접근 원칙과 정면으로 상충한다. AI는 의사 결정 속도를 급격히 높여 위험을 증가시킬 수 있으며, 치명적인 무기의 안전한 관리를 더욱 어렵게 만들 수 있다. 실제로 넌 전 의원과 NTI는 AI가 의사 결정 시간을 “위험할 정도로 단축”시킬 수 있다는 점을 명시적으로 언급하며, AI의 군사적 활용에 대한 우려를 드러냈다.

예측 불가 AI, 인간 손에 맡겨야

지난 2월 미국 국무부는 AI 안전 문제에 대한 보고서를 발표했지만, 핵무기와 AI의 결합에 대한 논의는 부족했다. AI 정책 조언을 제공하며 해당 보고서 작성에 참여한 민간 업체 ‘글래드스톤 AI(Gladstone AI)’의 에두아르 해리스(Edouard Harris) 공동대표는 핵무기 통제에 AI가 사용될 가능성은 작게 봤지만, AI 허위 정보에 대한 두려움이 국가가 AI 시스템에 핵무기 통제권을 넘기는 동기가 될 수 있다고 인정했다.

이는 AI가 인간보다 더 능숙하게 판단을 내릴 수 있다는 믿음 때문이며, 제임스 존슨이 ‘AI와 핵무기’에서 제시한 시나리오와도 일치한다. 이러한 시나리오는 게임 이론을 발전시킨 존 폰 노이만이 주장했던 ‘예방 전쟁’ 개념과도 연결되는데, 그는 상대가 충분한 핵무기를 개발하기 전에 선제공격해야 한다고 주장했다. AI의 발전이 이러한 위험한 논리를 더욱 부추길 수 있다는 것이다.

과거 미국의 선제 핵 공격은 없었지만, AI가 폰 노이만처럼 호전적인 게임 이론에 따라 행동할지, 아니면 인간적인 의사 결정을 따를지는 불확실하다. 현재 AI 모델은 다차원적 특성 때문에 특정 상황에서 어떻게 반응할지 예측하기 어렵다. 즉 한 측면에서의 성능 향상을 의도했던 미세조정이 다른 측면에서의 성능을 저하시키는 문제로 이어질 수 있는데, 이러한 불확실성은 AI를 무기 시스템에 통합하는 것에 대한 심각한 위험을 내포한다.

일각에서는 핵무기 시스템의 특수성 때문에 AI 통합이 제한될 것이라고 주장하지만, 러시아의 전술핵무기 훈련과 위협은 이러한 낙관론을 무색하게 만든다. 러시아의 핵 위협에 대응하여 미국 등 서방 국가들이 AI 군사 기술 개발에 박차를 가할 경우, AI 군비 경쟁이 심화될 수 있어, 핵무기 사용 결정에 AI가 개입할 가능성은 여전히 남아 있게 된다.

따라서 핵 의사 결정에서 인간을 배제하려는 시도에 저항하기 위한 강력한 법적 규제가 시급한 상황이다. 물론 AI의 발전은 긍정적인 측면도 많지만 그 위험성을 간과해서는 안 되며, 특히 핵무기와 같은 치명적인 무기와의 결합은 절대적으로 막아야 한다는 지적이 지속적으로 제기되고 있다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.