[해외 DS] 생성형 AI가 인류를 대체하진 않을 것, 다만 인간의 ‘논리적 사고력’ 잃는 것은 주의해야
인간의 고유한 영역으로 여겨지던 예술 산업까지 침범한 생성형 AI 생성형 AI가 인류에게 주는 피해는 분명해 범용인공지능 주장은 터무니 없어, 다만 인간이 알고리즘 의존해 비판적 사고력 잃지는 말아야
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.
생성형 AI가 글로벌 산업 전반에 스며들고 있다. 심지어 인간의 고유 영역으로 여겨졌던 예술 분야까지 그 범위를 확장하는 분위기다. 가장 최근의 사례로는 지난 5월 발생했던 미국작가조합(WGA)의 파업 사태다. 디즈니를 비롯한 대형 미디어 컨텐츠 제작사들이 챗GPT로 대본 초안을 쓰기 시작하면서, 기존 대본을 쓰던 작가들이 직장을 잃을 것이라는 불안감에 대거 파업에 동참했다.
이에 일각에선 생성형 AI로 인해 점점 인간이 나설 분야가 없어지고 있는 것 아니냐는 우려가 쏟아진다. 심지어 일부 과격한 비관론자들은 ‘범용인공지능(Artificial General Intelligence, AGI)’ 시대가 도래해 AI가 초월적인 지능으로 인류를 파멸시킬 수 있다는 주장을 내놓는다. 실제 ‘AI 4대 석학’ 중 한 명인 제프리 힌턴 토론토대 교수, 테슬라 CEO 일론 머스크, 고 스티븐 박사 등 여러 전문가와 학자들이 생성형 AI를 규제해야 한다는 목소리를 높였다.
생성형 AI의 치명적인 단점 분명 존재해
AI 규제론자들의 일부 주장처럼, 생성형 AI가 인류에게 끼치는 해악이 수면 위로 떠오르고 있는 것은 분명한 사실이다. 예컨대 러・우 전쟁이 한창이던 시기, 트위터에서 젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 내용의 딥 페이크 영상이 퍼지면서 국가 혼란을 초래한 바 있다. 한편 해외 금융권에선 CEO 음성 지시로 25만유로를 송금해 피해를 본 기업 사례 등 금융 사기 사건이 속출하고 있다.
아울러 AI의 성・인종 편향적 답변 출력도 세간으로부터 거세게 비판받는 지점이다. 대규모 언어 모델(Large Language Model, LLM)의 경우, 인터넷 텍스트에 포함된 성・인종 차별적 표현을 그대로 학습한 뒤 다시 출력할 가능성이 높다. 또한 실제 최근 연구에 따르면 챗GPT 기반 의학 챗봇이 특정 인종 및 성별 환자의 설명을 신뢰하지 않는다는 결과가 밝혀진 바 있다. 이와 관련, 챗GPT 개발사인 오픈AI는 이같은 문제에 대해 아무런 입장을 내놓지 않고 있다.
이와 비슷한 맥락으로 GPT-4의 등장으로 생성형 AI 모델이 점점 더 사실적인 대화를 출력하게 되면서, 정서적으로 사각지대에 있는 사람들이 AI 챗봇에 본인의 민감한 개인 정보를 털어놓고, 해당 데이터를 수집한 챗봇이 이를 다시 확대 재생산하는 사례가 생기고 있다. 챗봇 ‘이루다’가 대표적인 예다. SNS, 카카오톡 채팅 데이터를 학습한 이루다는 사람과 대화 도중 특정 은행의 예금주를 그대로 말하거나, 아파트 동호수까지 포함된 주소를 유출하는 사례가 속출해 당시 많은 논란이 일었던 바 있다.
그렇다고 생성형 AI를 완전히 규제해야 한다는 것은 터무니없어
문제는 이같은 문제점을 과대 해석한 비판론자들이 AI에 대한 극단적 규제론을 내세우며 인공지능 기술에 대한 과도한 우려를 키우고 있다는 것이다. 예컨대 지난 5월 미국 비영리 연구기관 AI 안전센터(Center for Ai Safety)는 생성형 AI를 코로나19 및 핵무기의 위협과 동일선상으로 두는 터무니 없는 성명을 발표한 바 있다. 이들은 생성형 AI가 코로나19로 인해 전 세계적으로 700만 명이 사망하고, 몇 년간 지속된 글로벌 공급망 위축 및 인플레이션 발생, 그리고 핵무기로 인해 1945년 히로시마와 나가사키에서 20만 명 이상이 죽은 사건과 동일하다고 본다.
그러나 이는 공상 과학 소설에 가까운 잘못된 주장이다. 생성형 AI는 사용자가 요청한 특정 작업만 수행할 뿐, 인간을 뛰어넘는 ‘터미네이터’에 빙의해 문명을 몰살할 지능을 갖추지 못한다. 현재까지 진행된 많은 연구는 하나같이 컴퓨터로 인간의 ‘의식’을 구현할 수 없다는 결론을 내놓는다.
챗GPT의 경우만 놓고 보더라도, 이는 기존 데이터베이스에 축적돼 있는 정보 중 사용자가 입력한 ‘프롬프트(prompt)’와 관련 있는 정보만 ‘잘 정리해서’ 답변할 뿐, 새로운 콘텐츠를 신선하게 생산하는 작업이 아니라고 봐야 한다. 이와 관련해서는 챗GPT의 근간을 만든 앤드류 응 교수를 비롯한 대부분 전문가의 의견이 일치한다. 동일선상에서, 지난 5월 미국 월스트리트 저널은 AI 컨센서스를 전하는 ‘AI 리포트’에서 “생성형 AI가 내놓는 결과물들에 대해 너무 과대평가 돼 있다”며 “빅테크 기업들의 ‘과대광고’를 중단해야 한다”고 밝힌 바 있다.
현재 진행되고 있는 할리우드의 작가 파업도 동일한 맥락이다. 생성형 AI는 반복적으로 나타나는 패턴을 잘 찾아주는 것인 만큼, 인간 작가를 대체해 만들어 낼 수 있는 스토리는 기존에 존재했던 것과 크게 다르지 않다. 즉 창의적이고 재밌는 글을 쓸 수 있는 고급 작가는 계속해서 시장에서 살아남을 것이며, 산업 전체가 인공지능으로 대체될 일은 만무하다.
인류 문명 사라지는 것 아냐, 다만 인간이 인공지능에 전적으로 의존하는 것을 주의해야
다만 생성형 AI로 인해 인간으로서 가질 수 있는 차별적 능력인 ‘비판적 사고력’을 잃어 가고 있는 것은 주지 해야 할 사실일 것으로 보인다. LLM 기반 MS365, 라마2, 바드 등 최근 쏟아지고 있는 생성형 AI 기반 애플리케이션으로 업무 생산성이 크게 오르게 되면서, 알고리즘에 모든 판단을 맡긴 채 사람들은 생각하는 능력을 잃어가고 있다.
미국 비영리단체 ‘비판적 사고 재단(The Foundation of Critical Thinking)’은 “작문 연습은 비판적 사고를 길러 인간의 독립적이고 주체적인 삶을 영위할 수 있게 한다”고 언급한 바 있다. 그런데 최근 챗GPT를 이용해 학교 교육에서 글쓰기 과제를 대신 제출하는 경우가 빈번히 발생해 위 언급한 ‘비판적 사고력’을 잃어 가는 사람이 많아지고 있다.
따라서 AI가 세상을 완전히 날려버리진 않을 것이다. 다만 사람들을 알고리즘에 의존하게 만듦으로서 인간을 존엄하게 만드는 그 자체의 능력을 점진적으로 침식시킬 것으로 보인다. 그렇기 때문에 정부는 인간의 편익을 증진할 수 있도록 하는 한편, 교육 부문에서 생성형 AI로 인해 논리적 사고력을 잃지 않도록 하는 AI에 대한 적절한 규제 가이드라인을 만들어야 할 것이다.
*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.