[기자수첩] AI 시대 인간의 가치
챗GPT 검색 서비스 출시됐지만 시장 반응은 미지근
정확도 낮아 의존하기 어렵기 때문, 구글 검색 대체 어려울 것 지적도
단순 업무를 AI에 넘기는 고급 두뇌에 대한 시장 수요만 더 커져
한국도 고급 두뇌를 길러 낼 수 있는 체계적 시스템 갖춰야
챗GPT가 검색 기능을 공식적으로 출시했다. 이미 지난해부터 베타 서비스가 진행 중이었고, 올해 들어서는 상용화가 눈 앞에 있다는 보도가 여러차례 나왔었던 서비스다. 관계자들에 따르면 오픈AI가 이번 라운드 투자금을 유치할 때 검색 시장에서 구글을 따라잡아 수익성을 확보할 수 있다는 내용이 투자자들에게 크게 와닿았던 것으로 알려져 있을 정도로 오픈AI의 미래를 바꿀만한 중요한 서비스다.
그러나 시장의 반응은 그렇게 호의적이지 않다. 이미 지난 2022년 11월에 챗GPT를 출시할 때에 비해서 딱히 더 나아진 것이 없는 검색 보조 서비스라는 것이다. 기존 구글 검색과 다른 점은 글을 여럿 보여주는 것이 아니라, 찾을 것으로 짐작되는 정보에 대한 요약본을 보여준다는 정도의 차이 밖에 없는데, 가장 큰 문제는 내용의 정확도가 그렇게 높지 않다는 것이다.
‘인터넷에서 본 걸 다 믿으면 안 됩니다’
60대 이상 노령층에서 유튜브를 비롯한 주요 인터넷 영상 매체에 대한 접근성이 높아지면서 노부모를 모시는 3040 세대에게 유행이 된 표현이 있다. ‘사이버 렉카’로 분류되는 가짜 뉴스 생산자들이 뿌린 정보를 믿으면 안 된다는 뜻으로 부모님들께 ‘인터넷에서 본 걸 다 믿으면 안 됩니다’라는 표현을 쓴다는 것이다.
챗GPT 출시 2주년을 눈 앞에 둔 시점에 대형언어모델(LLM)을 쓰는 사용자들이 쓰는 표현도 크게 다르지 않다. ‘챗GPT가 가르쳐 준 내용을 다 믿으면 안 된다’는 표현이다. 챗GPT의 주 사용층을 대상으로 진행한 한 인터넷 여론조사에는 챗GPT에 대한 신뢰도에 불과 10명 중 4명만 호의적이라고 답했다. 전문가들로 대상을 좁히면 그 비율은 매우 낮아진다. 개발 경력 10년이라는 한 IT업계 소프트웨어 개발자는 이미 널리 알려진 오픈소스 프로그램이 입력하는 변수를 잘못 알려준 것을 그대로 믿고 썼다가 서비스 오류를 겪은 사례를 공유하기도 했다. A 서비스와 B 서비스를 연결하기 위해 입력하는 정보인데, 잘못된 정보를 입력하라고 하길래 복사본을 떠 놓고 입력해 봤더니 아니나다를까 오류가 생겨서 기존 복사본을 다시 되살리는 번거로운 절차를 겪었다는 것이다.
같은 상황은 학계 연구자들로 넘어가면 더 심화된다. 한 데이터 과학 연구자는 학계에서 널리 받아들여지는 학부 수준의 지식을 적용하는 코드를 요청하니 잘못된 코드를 그대로 제공한 탓에 순간 혼란을 겪었던 사례를 공유하기도 했다. 자기가 잘못 알고 있었나는 생각에 잠깐 교과서를 뒤져본 후에 다시 챗GPT에게 질문하니 잘못을 인정하더라는 것이다.
챗GPT 기반 검색, 정확도가 안 따라줘서 못 쓰겠다
인터넷에 이미 많은 자료가 있는 오픈소스 프로그램, 학부 수준의 교육 내용에 대해서 신뢰를 못하는 것에 지나지 않는 것이 더 큰 문제다. 항공권 가격 검색을 하면 최저가를 보여주는 기존 경쟁 서비스와 달리, 항공권 이외에 다른 연계 서비스들에 대한 홍보 자료가 더 많이 나온다. 추천 받은 항공권도 최저가가 아닐 확률이 높다.
여행업계에서 쓰는 AI 시스템을 개발 중이라는 한 IT업계 관계자는 “챗GPT를 그대로 붙여 쓸까는 생각에 각종 테스트를 진행했지만, 상품화하기 어렵겠다고 판단했다”며 “결국 기존대로 주요 여행 웹사이트와 계약을 맺고 데이터를 받아오는 작업으로 개발 계획을 변경”할 수 밖에 없었다고 밝혔다. 같은 상황은 인터넷 언론 기사를 AI 기반으로 제공해줄 수 있다고 주장하는 주요 서비스들에서도 크게 다르지 않다. 챗GPT가 재작성한 기사들의 문체 수준으로는 기사로 쓰기에 어렵다는 점, 사실 관계를 확인하지 않고 문장 순서를 뒤섞다보니 오해의 소지가 많은 문장이 나오는 점, 짧게 요약된 문장을 길게 풀어쓰면서 문장이 중언부언되는 점 등이 지적의 대상으로 언급됐다.
AI시대 인간 노동력의 의미
IT업계 관계자들은 막대한 서버 비용과 전기세 등을 부담하고도 구글 검색을 대체하는 서비스를 만들어내기는 어려울 것이라는 비관론을 주로 내놓는 경우가 많다. 단순한 검색은 여전히 구글 검색이 압도적인 우위에 있고, 복잡한 검색은 챗GPT의 신뢰도가 크게 떨어지기 때문이다. 현실적으로 가장 적합한 사용처는 정해진 답변의 종류가 많지 않은 기업용 콜 센터 정도에 그칠 것이라는 설명이다.
반대로 현재 AI라고 불리는 기술이 ‘확률형 앵무새’에 지나지 않는다는 것을 주요 업계 관계자들이 이미 인식한만큼, 오히려 지식을 갖고 논리적 추론을 할 수 있는 고급 두뇌에 대한 수요가 더 늘어날 것이라는 지적도 많다. 언론계에 같은 논리를 적용할 경우, 단순히 다른 기자들이 쓴 기사를 베껴쓰는 ‘우라까이’ 기자들이 시장에서 빠르게 퇴출되는 반면, 현장 상황을 제대로 인식하고 사건의 이해를 정리할 수 있는 기자들만 채용할 것이라는 설명이다.
마치 AI가 인류를 멸망시키는 것 같은 호들갑을 떨던 시대가 지났고, 현실적으로 쓸 수 있는 영역이 한계가 있다는 점이 널리 알려진 만큼, 한국 정부의 인재 양성 방식도 바뀌어야 한다는 목소리도 제기된다. 이창용 한국은행 총재는 입학 시점 점수 기준으로 서열형 선발이 이뤄질 것이 아니라, 복잡한 사고를 할 수 있는 인재를 다각도로 판단하고, 그런 인재를 양성할 수 있는 형태로 교육이 바뀌어야 한다는 주장을 여러차례 했다. 본인이 서울대를 재수해서 입학했다고 주변 인력들에게 놀림을 듣기도 했고, 하버드 박사, 로체스터 대학 교수, 서울대 교수를 거치며 봐왔던 학생들, 아시아 개발은행, 국제통화기금 등의 글로벌 조직을 거치며 봤던 인재들의 역량을 보면서 얻은 경험이 깔려 있을 것이다. AI 시대에 고급 두뇌가 더 필요한 만큼, 석학들이 비전을 갖고 지적하는대로 한국의 주요 시스템들도 바꿔야 할 시점이다.