[해외 DS] 2024년 AI 전망, “더 알아가는 해일까, 더 멀어지는 시간일까”
2023년, AI 붐에 대한 과대광고가 난무했던 한 해 기술 이해와 교육이 무엇보다 중요해져 현재 AI 발전 속도를 고려하면 규제가 더 시급해
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소 (GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.
2023년은 인공지능의 진화와 사회에서의 역할에 있어 변곡점이 되는 해였다. 생성형 AI가 등장하여 인공지능의 잠재력이 음지에서 대중의 상상력의 중심으로 옮겨졌다. 또한 OpenAI 이사회의 드라마가 며칠 동안 연말 뉴스 토픽을 장식하기도 했다. 그리고 바이든 행정부가 행정명령을 내리고 유럽연합이 AI 규제를 목표로 하는 법안을 통과시켰다.
하지만 무엇보다도 2023년은 AI 붐의 해였다. AI가 세상을 구할 것이라는 이야기든 세상을 파괴할 것이라는 이야기든, 언젠가 AI가 어떻게 될지에 대한 비전이 현재의 현실을 압도하는 것처럼 느껴지는 이야기들이 오갔다. 미래의 해악을 예측하고 기술의 윤리적 부채를 극복해야 하지만, 기술에 대한 충분한 이해 없이 과대광고에 휩쓸리면 마술처럼 보이는 AI의 미래가 만들어질 위험이 있다.
인공지능의 원리를 깨달아야, “문제는 교육이야!”
AI 마법에 가장 큰 타격을 입은 분야는 교육이다. 작년 이맘때만 해도 대부분의 뉴스 헤드라인은 학생들이 어떻게 이 기술을 이용해 부정행위를 할 수 있는지, 그리고 교육자들이 어떻게 이를 막기 위해 애쓰고 있는지에 초점을 맞췄는데, 해가 거듭될수록 학생들에게 AI에 대해 가르치지 않으면 불이익을 받을 수 있다는 인식이 확산하면서 많은 학교가 금지 조치를 철회했다.
결국 학생들이 AI가 어떻게 작동하는지 배우지 않으면 그 한계를 이해하지 못하기 때문에 AI를 유용하고 적절하게 사용하는 방법과 그렇지 않은 방법을 이해하지 못한다. 아울러 이는 학생에게만 해당하는 이야기가 아니다. 사람들이 AI의 작동 원리를 더 많이 이해할수록 AI를 사용하고 비판할 수 있는 권한이 더 커질 수 있으므로 걱정이 앞설 땐 충분한 학습이 선행돼야 하는 이유다.
따라서 전문가들은 올해 엄청난 학습 압박이 몰려올 것으로 전망했다. 이전 세대의 기술 복잡도를 넘어선 새로운 시대가 열렸기 때문이다. 1966년 엘리자(ELIZA) 챗봇을 만든 조셉 바이젠바움(Joseph Weizenbaum)은 기계는 “가장 경험이 많은 관찰자조차도 현혹하기에 충분”하지만, “이해를 유도할 수 있을 정도로 평이한 언어로 기계의 내부 작동을 설명하면 그 마법은 무너진다”고 썼다. 그러나 생성형 인공지능의 문제점은 엘리자의 매우 기본적인 패턴 매칭 및 치환 방법론과 달리, 인공지능의 마법을 무너뜨릴 수 있을 만큼 ‘충분히 쉬운’ 언어를 찾기가 훨씬 더 어렵다는 것이다. 그 결과 기술이 이해하기 어려운 만큼 사람들이 적절한 대응책 마련할 수 있는 시기는 미뤄질 수밖에 없다.
“더 많은 AI 기술 전문가를 채용하기 위해 서두르고 있는 대학들이 AI 윤리학자를 채용하는 데에도 많은 노력을 기울였으면 좋겠다”고 미국 콜로라도 소재 볼더대학교 정보과학 부교수 케이시 피슬러(Casey Fiesler)는 말했다. 언론 매체들이 AI에 관한 과대광고를 지양하고, 모든 사람이 자신의 AI 기술 사용과 그 결과에 대해 성찰했으면 좋겠다고 그녀는 덧붙였다. 인공지능을 비판적으로 바라보기 위해선 정보에 입각한 비평에 귀를 기울여야 한다고 전문가들은 입을 모아 조언했다.
알고리즘, “알아도 모르고 배워도 쫓아가지 못하는 시대?”
2022년 ChatGPT가 공개되면서 수익과 명예, 글로벌 패권을 차지하기 위한 전면적인 무한 경쟁이 시작됐다. 새로운 AI 애플리케이션의 홍수와 더불어 더욱 강력한 AI를 기대하는 움직임이 폭발적으로 증가했다. 이로 인해 새로운 문제도 생겨날 가능성이 높아졌다. 예로 들어 딥페이크로 생성된 이미지와 동영상은 규제에도 불구하고 만연하며, 개인과 민주주의에 해악을 끼치고 있다.
게다가 ChatGPT가 공개된 이후 1년 동안 생성형 AI 모델의 개발은 빠른 속도로 계속되고 있다. 텍스트 프롬프트를 입력으로 받아 텍스트 출력을 생성했던 1년 전 ChatGPT와 달리, 새로운 세대의 생성형 AI 모델은 멀티모달로 학습되며, 이는 학습에 사용되는 데이터가 위키피디아(Wikipedia), 레딧(Reddit)과 같은 텍스트뿐만 아니라 유튜브 동영상, 스포티파이(Spotify)의 노래, 기타 오디오 및 시각 정보에서도 제공된다는 것을 의미한다. 이러한 애플리케이션을 지원하는 차세대 멀티모달 대규모언어 모델(LLM)을 사용하면 텍스트 입력을 사용하여 이미지와 텍스트뿐만 아니라 오디오와 비디오도 생성할 수 있다. 5년 전만 해도 상상할 수 없었던 새로운 종류의 AI 재난이 발생할 가능성도 함께 높아진 것이다.
또한 기업들은 스마트폰에서 LLM을 실행하는 것을 포함하여 다양한 하드웨어와 다양한 애플리케이션에 배포할 수 있는 LLM을 개발하기 위해 경쟁하고 있다. 이러한 고급 AI 기능은 일반 비즈니스에서 정밀 의학에 이르기까지 다양한 분야에서 엄청난 혁신을 불러올 수 있으나, 이러한 고급 기능이 인간이 만든 콘텐츠와 AI가 만든 콘텐츠를 구분하는 데 새로운 도전과제를 제기할 뿐만 아니라 새로운 유형의 알고리즘 피해를 야기할 수 있다. 생성형 AI에 의해 생성된 합성 콘텐츠의 범람으로 인해 악의적인 사람과 기관이 합성 신원을 만들고 대규모의 잘못된 정보를 생산할 수 있는 세상이 도래했다.
미국 연방거래위원회(FTC)는 AI를 이용한 콘텐츠 제작의 용이성으로 인해 사기, 속임수, 개인정보 침해 및 기타 불공정 행위가 발생할 수 있다고 경고한 바 있다. 유튜브와 같은 디지털 플랫폼은 AI가 생성한 콘텐츠의 공개에 대한 정책 가이드라인을 마련했지만, 미국 데이터 프라이버시 및 보호법(American Data Privacy & Protection Act)과 같은 개인 정보 보호를 위해 노력하는 의원들과 FTC와 같은 기관에서 알고리즘의 피해에 대해 더 면밀히 조사할 필요성이 있다. AI가 사람들이 하는 모든 일과 점점 더 밀접하게 얽히면서, 이제는 알고리즘을 기술의 일부가 아니라 알고리즘이 작동하는 맥락, 즉 사람, 프로세스, 사회에 초점을 맞춰야 할 때가 온 것이 분명하다.
영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.