美 경제학자들 “생성형 AI, 향후 10년 동안 미국 연간 생산성 성장률 1.5%포인트 올릴 것”
AI는 전기·인터넷 등과 달라, 기술 혁신 이후 보편화까지 오래 안 걸려 학계에서도 효과 즉각 발생할 것으로 예상, 예외 없이 전 산업군으로 확대될 것 다만 ‘AI 환각 오류’ 등 활용 가이드라인 갖춰 사회적 비용 치르지 않도록 해야
미국의 경제학자들 사이에서 인공지능(AI) 혁신이 경제 생산성 향상에 기여할 수 있다는 분석이 제기됐다. 기술 혁신과 생산성 향상 사이 시차가 있다는 기존 주장과 달리, AI 기술은 특별한 인프라 없이 인터넷만 있으면 곧바로 적용 가능하기 때문에 생산성 향상 효과가 즉각 발생할 수 있다는 주장이다.
업계 전문가들은 생성형 AI가 신약 개발, 금융 서비스, 소매 및 통신부터 에너지, 고등 교육 및 공공 부문에 이르기까지 다양한 산업 분야에 사용될 것으로 내다보고 있다. 다만 일각에선 편향된 정보를 전달하는 생성형 AI의 환각 오류 등을 지적하며 AI 활용에 대한 가이드라인을 갖추지 못할 경우 사회 전반적으로 큰 비용을 치를 수 있다는 경고가 나온다.
골드만삭스 “2030년 초 무렵 AI 통한 생산성 향상 일어날 것”
16일(현지 시간) 월스트리트저널(WSJ) 보도에 따르면 골드만삭스는 생성형 AI가 보편적으로 사용될 경우 향후 10년 동안 생성형 AI가 미국의 연간 생산성 성장률을 1.5%포인트 올리는 데 기여할 것이라고 전망했다. 2000년대 초부터 노동생산성 성장 둔화를 겪기 시작한 미국은 2007년 하반기 이후 평균 생산성 성장률이 1%에도 미치지 못했다.
다만 전문가들 사이에서도 AI가 보편화되는 시기는 예측하기 어려운 상황이다. 조셉 브릭스 골드만삭스 수석 이코노미스트는 “정확한 시기를 예측하기 어렵지만 2020년 말, 2030년 초 무렵에는 AI를 통한 생산성 향상이 일어날 수 있다”면서 “기업들이 AI를 도입하기 시작하는 시점과 AI가 가진 역량에 대한 불확실성 등을 고려할 때 AI로 인한 생산성 상승효과는 0.3~2.9%포인트까지 낮아질 수 있다”고 설명했다.
골드만삭스의 주장은 그간 기술 혁신에 따른 생산성 향상에 시차가 발생한다는 기존 기술 혁신 사례들과는 배치된다. 대표적으로 1800년 알렉산드로 볼타가 최초의 전기 배터리를 발명하면서 처음 화학적으로 전기를 만들 수 있음이 증명됐지만, 전기를 직접 채택한 공장이 보편화되기까진 100년 이상의 시간이 걸렸다. 인터넷 역시 1960년대 처음 개발됐지만, 1990년 이후에야 대중적으로 사용되기 시작했다.
학계에선 AI 효과를 확신하는 분위기다. 에릭 브린욜프슨·다니엘 리 린제이 MIT대학 교수가 지난 4월 발간한 논문에 따르면 미국의 한 콜센터에서 AI를 도입한 결과, 상담 직원이 시간당 문제를 해결한 건수가 평균 14% 향상된 것으로 나타났다. 안톤 코리넥 버지니아대학교 경제학 교수도 “이미 인터넷을 통해 모두가 연결된 상황에서 AI로 인한 생산성 향상 효과가 즉각 발생할 수 있다”고 주장하며 “향후 10년간 생성형 AI로 인한 생산성이 10~20% 향상될 것”으로 내다봤다.
생성형 AI가 도입될 영역들, 생산성 향상은 어디서 나타날까
산업 현장에서도 생성형 AI 도입은 단연 화제다. 세계적인 회계·경영컨설팅 기업 PwC는 “생성형 AI가 2030년까지 전 세계 경제에 15조 달러(약 2경270조원) 이상 기여할 것”이라며 “그 영향력이 인터넷, 모바일 광대역, 스마트폰의 발명을 모두 합친 것보다 더 클 것”이라 전망하고 있다.
미국의 IT 연구 및 자문회사 가트너 역시 ‘2024년 기업들이 주목해야 할 10대 전략 기술 트렌드’를 발표하며 향후 생성형 AI 대중화에 따라 AI 안전, AI를 활용한 소프트웨어 개발, 지능형 애플리케이션, 업무 최적화 등의 흐름이 주목받을 것으로 전망했다. 나아가 이미 업계에서 주류로 자리한 생성형 AI가 향후 36개월 이내 CIO와 기타 IT 리더에게 상당한 변화와 기회를 가져올 것으로 내다보고 있다.
실제 AI를 적용한 사례가 늘고 있다. 유명 활용 사례로는 미국 패스트푸드 체인인 하디스(Hardee’s)에선 AI 챗봇이 고객의 주문을 받는가 하면, 국내에선 메디케어, 메디케이드, 재향군인회, 우체국, 국무부 등 정부 기관과 같은 공공 부문의 서비스에서도 생성형 AI가 적용되고 있다.
가트너의 VP 애널리스트인 바트 빌렘센은 “생성형 AI의 핵심은 가속 컴퓨팅”이라면서 “가속 컴퓨팅은 소비자 및 기업 사용 사례 전반의 애플리케이션을 가속화하는 기술로, 신약 개발, 금융 서비스, 소매 및 통신부터 에너지, 고등 교육 및 공공 부문에 이르기까지 다양한 산업 분야에 사용될 것으로 보인다”고 전했다.
유용한 만큼 한계도 분명, 생성형 AI 남용되지 않도록 가이드라인 갖춰야
하지만 그 한계나 위험성도 분명 존재한다. 가장 많이 지적되는 문제점은 LLM(거대언어모델)을 포함한 생성형 AI 모델이 의미 없거나 틀린 대답, 심지어는 잘못된 정보를 생성하기도 한다는 점이다.
전문가들이 환각(할루시네이션) 문제라고 정의내린 AI 모델의 오류는 수학 계산의 오류와 엉터리 추론, 역사적 사실에 대한 오류, 물리적 세계에 대한 몰이해를 포함해 사회적 가치에 맞지 않는 편향과 차별적 정보 생성 등을 포함한다. 이미 여러 조사에서 챗GPT는 15~20%의 환각률이 나타났음이 드러났고, 후속모델인 GPT-4조차 약 8.4% 환각률을 보이고 있다.
생성형 AI의 또 다른 문제는 답변의 편향성이다. 이는 단순히 텍스트에 대한 답변뿐만 아니라 이미지나 프로그램 코딩 출력에서도 동일하게 나타난다. 특히 이미지 출력에선 사회적 고정관념을 반영해 매니저와 CEO는 대부분 남성으로, 간호사는 여성으로, 길거리 상인들은 유색인종으로 출력하는 것으로 알려졌다.
아울러 해외 주요국 정부가 가장 기민하게 대응하고 있는 문제는 개인정보와 관련된 부분이다. 한때 챗GPT를 금지했던 이탈리아를 비롯한 일부 유럽 국가들은 챗GPT가 수집한 데이터 가운데 개인 정보가 식별화되지 않거나 노출되는 점을 지적하며 생성형 AI의 개인 정보 수집과 그 처리 문제의 투명성을 요구한 바 있다. 이에 전문가들은 기본적으로 생성형 AI는 생산성 향상에 유용한 도구이지만, 장단점에 대해 제대로 교육하지 않고 의미 있는 가이드라인을 갖추지 못할 경우 사회 전반적으로 많은 비용을 치룰 수 있다고 경고한다.
디지털·IT전략 컨설팅기업 테크프론티어의 한상기 대표는 “이미 법정에선 잘못된 판례를 챗GPT로 작성해 제출한 변호사가 벌금을 냈고, 허위 이미지로 주식 시장이 영향을 받은 사례가 있다”면서 “이미 생성형 AI가 여러 범죄에서 사용되기 시작한 상황에서 지나친 남용이나 오용을 막을 수 있도록 업계와 정부의 가이드라인이 필요하다”고 강조했다.