AI의 진화, 인류 멸종시킬 만큼 위협적이다?
AI로 인한 재앙적 국가안보 위험 경고 “핵무기처럼 안보 불안정하게 할 수도” AI 종말론에 대한 전문가들의 견해는?
인공지능(AI)이 인류를 멸종시킬 가능성이 있으며, 이를 방지하기 위해 정부가 빠르게 개입해야 한다는 내용의 보고서가 나왔다. 미국 국무부 의뢰로 작성된 해당 보고서는 최악의 경우 AI가 ‘인간종 멸종 수준의 위협’이 될 수 있다고 경고한다. 다만 이는 AI 분야의 세계적 석학들의 주장과 상반된다는 점에서 주목된다.
美국무부 의뢰 보고서 “국가안보 등 분야에 재앙적 위협 가능”
12일(현지 시각) 미 CNN방송 등 외신에 따르면 AI정책 조언을 제공하는 민간 업체 ‘글래드스톤AI’는 전날 홈페이지에 ‘첨단AI의 안전성과 보안성을 높이기 위한 방안’이라는 보고서를 발표했다. 해당 보고서는 미 국무부의 의뢰로 작성됐으며, 총 247쪽에 달한다.
해당 보고서는 지난해 생성형AI 붐이 일어난 후 커진 ‘AI종말론’과 비슷한 주장을 이어가고 있다. 최첨단AI와 인간을 능가하는 지능을 갖춘 일반인공지능(AGI)의 등장을 핵무기에 비교하며, 통제를 하지 않으면 인간을 멸종시킬 수도 있다는 것이다. 이 보고서는 특히 고도로 발전한 AI의 위험 요소로 ‘무기화’와 ‘통제력 상실’을 꼽았다. AI를 좋은 곳에 사용하면 인류에 큰 편리함을 가져줄 수 있지만, 반대의 경우엔 생화학·사이버 전쟁 등에 활용될 수도 있다는 것이다.
보고서는 특히 AGI의 진화 속도가 매우 빠르며, 5년 내에 AGI가 실제로 나타날 것으로 내다봤다. 실제로 오픈AI, 구글 딥마인드, 엔비디아 등은 모두 2028년쯤 AGI에 도달할 수 있을 것으로 보고 있다.
이 때문에 보고서는 위협에 대응하기 위해 미 정부가 AI개발에 빠르게 개입해야 한다고 주장한다. 긴급 규제 안전장치와 AI감독 기관을 만들고, AI모델 훈련에 사용할 수 있는 컴퓨터 성능을 제한해 AGI의 출현 속도를 늦춰야한다는 것이다. 이와 함께 AI반도체 제조와 수출에 대한 통제도 강화해야 한다고 제언했다.
다만 보고서는 이런 위험성 때문에 AI 연구를 아예 그만두게 하는 것은 바람직하지 않다고 했다. 글래드스톤AI 공동 창립자이자 최고경영자(CEO)인 제러미 해리스는 CNN에 “최악의 시나리오 중 하나는 모든 사람의 AI 연구를 완전히 중단시켜 이 기술의 놀라운 이점을 누리지 못하는 것”이라고 했다.
AI에 인류 멸종? 터무니 없다
하지만 보고서가 주장하는 인류 멸종 시나리오는 세계적인 석학인 얀 르쿤 메타 수석AI과학자 겸 미 뉴욕대 교수의 견해와는 완전히 배치된다. 르쿤 교수는 지난해 6월 프랑스 파리에서 열린 비바테크에 참석해 “현재 AI는 개의 지능에도 크게 못미친다”며 “AI 종말론이 터무니없고 우스꽝스러운 주장”이라고 역설했다. 그러면서 “미래에 인간보다 똑똑한 기계가 등장하겠지만 위협으로 여겨선 안된다”며 “AI는 인류의 똑똑한 비서가 될 것”이라고 주장했다.
같은 달 한 언론사와의 인터뷰에서도 “초지능(super intelligence) 시스템이 개발되면 인류가 멸망하고 전 세계를 파괴할 거란 주장은 단 1초도 믿어본 적 없다”며 “항공기는 수십 년간 시도하고 수정하는 복잡한 과정을 되풀이한 끝에, 안전한 운송수단이 됐다. AI 기술도 이런 반복 과정이 필요하다”고 설명했다.
낙관적으로 바라보는 이유에 대해서는 “모든 이들이 ‘AI 비서’를 거느리고 일하는 미래를 상상해 보라”며 “나보다 똑똑한 직원을 두는 셈인 만큼 생산성과 창의성이 좋아질 것”이라고 밝혔다. 그러면서 “더 뛰어난 지능은 세상을 나은 방향으로 움직이게 한다. 위험이 있다고 해서 AI가 가져올 이점까지 무시하고 싶지 않다”고 설명했다.
英 컴퓨터 과학자도 “AI의 인류 멸종 위협 크지 않아”
‘AI의 대부’라는 수식어로 유명한 영국 컴퓨터 과학자 지오프리 힌튼(Geoffrey Hinton)도 AI의 인류 멸종 위협이 크지 않다고 보고 있다. 힌튼은 AGI가 인류의 곁에 다가올 시점이 얼마나 남았느냐를 떠나 지금부터 AI가 인류의 멸종 원인이 될 것이라는 주장을 비롯해 AI가 인류에 미칠 영향을 당장 신중하게 고려해야 한다고 주장한다.
힌튼은 AI가 인류의 종말을 초래할 가능성이 터무니없는 이야기는 아니라고 언급하면서도 현재 누구나 공개적으로 이용할 수 있는 AI의 지능은 다소 어리석은 편이므로 인류가 AI를 통제하지 못할 상황을 면할 가능성이 있다는 전망을 제시했다. 이어 챗GPT를 언급하면서 “현재 AI 프로그램은 오류가 빈번하다”며 “또 진실을 제대로 이해하지 못한다”고 말했다. 학습 데이터에서 서로 다른 반대 의견을 조정하려 하기 때문에 오류가 발생할 수밖에 없다는 설명이다.
힌튼은 추후 AI의 발전 방향과 관련해서는 다양한 세계관을 이해하는 시스템이 될 수 있다고 내다봤다. 그러나 이는 AI 시스템 사용자가 개인의 세계관을 주입하여 기존의 편견, 고정관념 등을 재생성할 수 있다는 점에서 경계해야 할 부분이라고 짚었다. 아울러 힌튼은 현재 인류 사회가 실제로 직면한 AI 관련 문제는 인류의 종말이 아닌 권력에 눈이 먼 정부와 기업이 AI를 독점할 가능성이라고 말했다.