일반인공지능 시대의 도래, 아직 멀었다
앤드류 응 교수, AI 기술 아직 갈 길 멀었다 일각에서는 일반인공지능으로 인류 위협할 수 있다는 과한 우려도 AI 기술에 대한 정확한 이해가 필요한 시점
21세기 AI(인공지능) 업계에서 가장 괄목할 만한 성과를 올렸다는 평가를 받는 앤드류 응(57) 미국 스탠퍼드 교수가 지난 20일 성남 카카오 본사에서 “일반인공지능(AGI, Artificial General Intelligence)의 등장은 아직 멀었다”고 밝혔다. 이어 그는 “AI의 발전으로 고용 충격 및 정보의 신뢰성, 윤리적 문제 등 부정적인 영향을 초래할 가능성이 있겠지만, 그럼에도 긍정적인 영향이 부정적인 영향을 상쇄할 것”이라고 강조했다.
앤드류 응 교수, “AI가 인류에 가져다주는 효용이 단점을 상쇄한다”
응 교수는 챗GPT를 비롯한 대규모 언어 모델(Large Language Model, LLM)의 토대인 ‘잠재 디리클레 할당(Latent Dirichlet Allocation, LDA)’을 개발해 AI 업계에 큰 반향을 일으킨 바 있다. 또한 그는 인공지능 관련 학계에서 제프리 힌턴(토론토대), 요수야 벤지오(몬트리올대), 얀 르쿤(뉴욕대)과 함께 AI 업계에서 세계 4대 석학으로도 꼽히는 인물이다.
응 교수는 챗GPT를 필두로 하는 현시점의 생성형 AI가 결코 인간의 능력을 초월하지는 못한다고 보는 입장이다. 예컨대 챗GPT만 하더라도 유저가 질문한 내용에 기반해 데이터베이스에서 정보 검색을 한 후 적절한 정보를 찾아내서 정리하는 일종의 ‘챗봇’ 역할을 할 뿐, 이를 뛰어넘어 인간과 동일한 지능을 가지고 창조적인 일을 수행할 수 있다고 보기는 어렵다는 것이다.
한편 AI 기술이 본격화됨에 따라 일자리가 감소하지 않냐는 질문에 응 교수는 “모든 직업군에서 AI를 통해 생산성을 크게 제고하는 시대가 도래하고 있기에 기존 도메인과 결합한 새로운 직종이 생겨날 것”이라며 “이달 초 챗GPT에 전문적인 코딩을 대신 작성하는 기능이 추가된 것이 좋은 예”라고 말했다. 현대인 대부분이 기초적인 수학 또는 엑셀을 통해 업무를 처리할 수 있는 것처럼, 이제는 모두가 데이터를 직접 머신러닝・딥러닝 알고리즘에 넣어서 도메인 지식과 결합한 새로운 가치를 창출할 수 있는 시대가 열린다는 것이다.
AI 규제론자들, 일반인공지능 곧 도래하고 인류 위협한다?
앤드류 응의 이런 발언은 최근 챗GPT를 포함한 다양한 생성형 AI가 세간에 공개되면서 지속적으로 제기되고 있는 ‘AI 규제론’을 염두에 둔 것으로 풀이된다. 실제 앞서 언급한 ‘AI 4대 석학’ 중 한 명인 제프리 힌턴 토론토대 교수가 대표적인 AI 규제론자다. 힌턴 교수는 인공신경망(Artificial Neural Network, ANN) 알고리즘으로 대표되는 ‘역전파(Backpropagation)’를 개발하면서 ‘AI 대부’로 불리게 된 인물이다. 이런 힌턴 교수가 여러 인터뷰와 언론 매체에서 ‘AI가 핵보다 위험하다’고 주장하는 등 AI에 대해 반감을 품게 된 이유는 무엇일까.
힌턴 교수는 AGI의 시대가 머지않아 곧 도래해 인류를 크게 위협할 것으로 본다. 인간의 개입 없이 스스로 학습・발전하며, 나아가 인간보다 고차원적인 지능 활동을 통해 종국적으로는 인류를 멸망시킬 수도 있다는 것이다. 특히 그는 BBC 인터뷰에서 AGI가 인류를 멸망시키려 할 가능성이 있느냐고 묻는 질문에 “불가능한 일이 아니다”며 “영화 ‘터미네이터’가 이제는 피부로 와닿게 된 시점이 됐다”고 밝혔다.
이외에도 AGI의 출현 가능성과 위험성에 대해서는 여러 전문가와 학자가 우려의 목소리를 내비쳐 오고 있다. 예컨대 테슬라 CEO 일론 머스크는 AI 기술이 테슬라에게 잠재적인 위협을 가할 것으로 인식하고 챗GPT 개발사인 오픈AI 이사회를 떠난 바 있다. 이후 머스크는 AI가 인류에게 주는 위협보다 이익을 우선시하는 오픈AI를 강하게 비판해 오고 있다.
또한 이제는 세상을 떠난 고 스티븐 호킹 박사는 생전 AI가 빠르고 지속적으로 성장해 결국 인류를 위협할 ‘특이점’이 도래해 결국 인간이 AI에 대체될 것이라며 주의를 당부하기도 했다. 아울러 AI 대중화에 앞장섰던 엘리저 유드코프스키는 최근 타임지에 AGI에 의해 받게 될 ‘실존적 위협’을 차단하기 위해 사전에 데이터센터를 폭격할 수 있는 인프라를 구축해야 한다는 내용의 글을 기고하기도 했다.
일반인공지능에 대한 ‘설레발’은 오히려 AI 산업 가로막아
이같은 AI 규제론자들 주장의 기저에 깔린 것은 결국 ‘AI의 통제 불가능성에 대한 우려’다. 즉 AI 기술 혁신의 속도를 인류가 따라잡지 못해 종국적으로는 인간과 AI가 주객전도가 될 것이라는 주장이다. 그러나 아마존, 메타, 구글 등 빅테크 기업이 자랑하는 자연어 기반 생성형 AI의 실상이 ‘적절한 정보 찾기’에 머물고 있는 만큼, AI 규제론자들의 과한 ‘설레발’에 인공지능의 초기 단계 기술 발전이 발목 잡히는 일은 없어야 한다는 게 앤드류 응 교수를 비롯한 AI 업계 전문가들의 공통된 의견이다.
실제로 지난 6월 29일(현지시간) AI 업계 컨센서스를 전하는 미국 월스트리트 저널(WSJ)은 일반인공지능 또는 생성형 AI가 내놓는 결과물들에 대한 빅테크 기업들의 ‘과대광고’를 중단해야 할 시점이라고 경고한 바 있다. 아울러 WSJ는 AI 연구자들이나 규제론자들이 펼치는 ‘인류 종말론’이 AI 기술과 오류 가능성에 대한 정책 입안자들의 견해를 왜곡시킬 가능성이 높다고 지적했다. 이들의 과도한 주장이 자칫 잘못된 정책으로 직결돼 AI 산업의 방향을 오도하는 것은 물론, 현재 경제 침체의 돌파구로 인식되는 ‘게임 체인저’를 스스로 걷어차 버릴 수 있단 의미다.
또한 AI 전문가들은 일반인공지능을 개발하고자 하는 일련의 시도들이 전혀 진전이 없었다는 점을 지적한다. 예컨대 유럽연합과 미국은 각각 인간의 두뇌를 인공지능에 탑재 또는 활용하고자 천문학적인 돈을 들여 대규모 프로젝트를 진행한 바 있으나 현재까지도 이렇다 할 희소식은 전해지고 있지 않다.
동일한 맥락으로 최근 연구들은 인간의 ‘의식’을 컴퓨터로 구현할 수 없다는 결과를 내놓는다. 해당 연구들에 따르면 인간의 경우 시각, 후각 등을 통해 받아들이는 데이터와 과거 경험을 결합해 새로운 결론을 도출하는 ‘논리적 사고’ 능력을 갖춘 반면, 현재의 컴퓨터 기술로는 이처럼 데이터를 탐지・처리하는 게 불가능하다. 또한 해당 연구들에 따르면 특정 생각을 중단하고 다른 생각으로 옮겨가는 것은 인간의 논리적 사고의 핵심인데, 이와 관련해 선구적인 컴퓨터 과학자 앨런 튜링은 이미 80년 전 컴퓨터가 스스로 생각을 중단할 수 없다는 점을 수학적으로 증명하기도 했다.
현재 AI가 초래하는 고용 충격, 산업 구조 변화, 윤리적 문제, 정보의 신뢰성, 보안 등의 문제가 사회적 현안으로 대두되고 있는 것은 부정할 수 없는 사실이다. 그러나 이를 과도하게 우려한 나머지 잘못된 사실을 증폭하거나, 완전히 AI 개발을 막아야 한다는 주장은 문제를 근본적으로 해결할 방법이 아닐뿐더러 인류가 AI를 통해 취할 수 있는 긍정적 편익을 모두 가로막는 셈이 된다. 이렇기에 이제는 대중들이 AI 기술을 정확히 이해할 수 있게끔 하는 제대로 된 언론의 역할이 중요해진 시점이다.