[해외 DS] AI 콘텐츠 위기, 테크 기업의 미비한 대응 방안 ①
어느 때보다 쉬워진 AI 콘텐츠 생성
악의적 의도로 사용되면 '공공의 이익' 해할 가능성 높아
워터마킹 같은 기술 대안 있지만 현재 수준으로는 효과가 미미해
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.
쉽게 접근할 수 있는 다양한 온라인 도구 덕분에 버튼 클릭 한 번으로 인공지능이 생성한 이미지, 텍스트, 오디오 및 동영상을 사람이 만든 것과 매우 흡사하게 제작할 수 있게 되었다. 그 결과 잠재적인 위험성을 내포한 오류, 잘못된 정보, 범죄 사기로 가득 찬 검증되지 않은 자료의 범람으로 인해 온라인 콘텐츠 위기가 초래됐다. AI가 생성한 콘텐츠를 사람이 만든 콘텐츠와 구분할 수 있는 방법을 찾기 위해 고군분투하고 있지만 현재의 AI 콘텐츠 탐지 도구는 정확도가 매우 떨어진다. ChatGPT를 개발한 OpenAI조차도 자체 제작한 분류 도구의 신뢰도가 낮아서 서비스를 중단했다.
사회적 혼란 야기하는 생성형 AI, 온라인 콘텐츠에 대한 신뢰 약화
인간과 기계의 창작물을 혼동하면 많은 부작용이 발생한다. ‘가짜 뉴스’는 수십 년 동안 온라인에서 문제가 되어 왔지만, 이제는 AI를 통해 단 몇 분 만에 왜곡된 이미지와 기사를 무더기로 게시하여 검색 엔진과 소셜 미디어 피드를 마비시킬 수 있는 수준에 이르렀다. 사기성 메시지, 게시물, 심지어 전화나 음성 메일도 그 어느 때보다 빠르게 퍼지고, 비양심적인 학생은 과제를, 과학자는 연구 데이터를, 그리고 입사 지원자는 애플리케이션을 자동 생성하여 자기 작업물로 속일 수 있게 됐다. 설상가상으로 부정확한 AI 콘텐츠 탐지기를 사용하면 순수한 노력의 결과물도 부정직하다는 오해를 불러일으킬 수도 있다.
딥페이크(이미지합성기술)를 핑계로 자신이 실제로 한 말과 행동에 대한 책임을 회피한 유명 인사도 있다. 최근 한 운전자가 사망한 사건에 대한 소송 중, 테슬라의 변호사는 일론 머스크 CEO의 불리한 발언이 담긴 2016년 녹취록이 딥페이크일 수 있다고 변명했다. 인터넷의 방대한 데이터가 조잡한 콘텐츠로 점점 더 오염됨에 따라, 생성형 AI는 스스로 ‘중독’되어 버릴지도 모른다. 이러한 모든 이유와 그 이상의 이유로 인해 실제와 인공 콘텐츠를 구분하는 일이 점점 더 중요해지고 있다.
워터마킹 기술, 아직 로봇인지 사람인지 헷갈려
기존의 AI 콘텐츠 탐지기는 제 역할을 못하는 실정이다. 베를린에 있는 공학 및 경제 응용과학대학의 컴퓨터 과학자이자 표절 연구자인 데보라 웨버-울프(Debora Weber-Wulff)는 “효과가 없습니다”라고 단언했다. 6월에 발표된 출판 전 논문에서 웨버-울프와 그녀의 공동 저자는 AI가 생성한 텍스트를 감지하기 위해 시중에 공개된 12개의 도구를 평가했다. 그 결과, 가장 관대한 평가 기준에서도 가장 높은 정확도가 80% 미만이었으며, 대부분은 동전 던지기 확률에 불과한 것으로 나타났다. 모두 오탐율이 높고 사람이 가볍게 편집하면 그 성능이 훨씬 더 떨어졌다. 위조 이미지 검출기에서도 비슷한 양상이 관찰됐다.
AI로 제작된 모든 콘텐츠에 지울 수 없는 숨겨진 디지털 신호를 삽입하여 출처 추적을 가능하게 하는 워터마킹 기술 대안이 주목받고 있다. 바이든 행정부는 미국 AI 기업 7곳이 “워터마킹 시스템과 같이 AI 콘텐츠를 효과적으로 식별할 수 있는 기술”을 개발하겠다는 서약을 포함하여 8가지 위험 관리 약속 목록에 자발적으로 서명했다고 7월 말에 발표했다. 최근 통과된 유럽연합 규제에서도 테크 기업의 AI 산출물이 사람의 작업물과 구별되기를 요구하고 있다.
워털루 대학의 데이터 보안 전문 컴퓨터 과학자인 플로리안 커쉬바움(Florian Kerschbaum)은 워터마킹은 “우리가 사용할 수 있는 몇 안 되는 기술적 대안 중 하나”라고 말했다. “그렇다고 해서 이 기술의 결과는 우리의 생각만큼 확실하지 않습니다. 높은 수준의 신뢰성에 도달할 수 있다고 확신하기 어렵습니다” 워터마킹 시스템을 구현하는 데는 해결해야 할 기술적 과제가 남아 있으며, 전문가들은 이러한 시스템만으로는 잘못된 정보를 관리하고 사기를 방지하며 사람들의 신뢰를 회복하는 중대한 과제를 달성할 수 없다는 데 의견을 같이했다.
[해외 DS] AI 콘텐츠 위기, 테크 기업의 미비한 대응 방안 ②로 이어집니다.
*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.