‘윤리 의식’ 빨간불 켜진 오픈AI, 이번엔 목소리 모방 논란?

160X600_GIAI_AIDSNote
오픈AI 수퍼얼라인먼트팀 해체, 안전 우려 커져
신규 음성 서비스 '스카이', 유명 배우 목소리 모방 의혹
데이터 무단 사용으로 꾸준히 누적된 불신, 어떻게 해소하나
openAI_warning_20240524-1

오픈AI의 안전과 윤리를 책임지던 ‘수퍼얼라인먼트(superalignment)’팀이 해체된 가운데, 곳곳에서 오픈AI의 ‘윤리 의식’에 대한 우려가 제기되고 있다. 기존 수퍼얼라인먼트팀을 이끌던 수장들은 물론, 오픈AI의 평직원들마저도 한목소리로 오픈AI가 AI 윤리와 안전에 힘써야 한다고 주장하기 시작한 것이다.

“오픈AI, 안전 신경 써야”

24일 업계에 따르면 수퍼얼라인먼트팀을 이끌던 일리야 수츠케버 전 오픈AI 최고과학자는 오픈AI가 ‘GPT-4o’를 공개한 지난 14일(이하 현지시간)에 회사를 떠났다. 그는 이날 자신의 X(옛 트위터)에 “거의 10년 만에 오픈AI를 떠나기로 결정했다. 회사의 궤적은 기적에 가까웠다”면서 오픈AI가 ‘안전한 AGI(범용인공지능)’를 개발하길 바란다고 밝혔다. 이는 AGI의 안전보다 ‘성능’에 중점을 싣는 샘 올트먼 오픈AI CEO의 현행 전략을 겨냥한 발언으로 풀이된다.

수츠케버의 뒤를 이어 오픈AI를 떠난 얀 리이크 전 오픈AI 안전팀 공동 리더는 한층 고강도의 비판 의견을 내놨다. 그는 “지난 수년간 AI 안전성은 ‘잘 나가는 제품’보다 뒷전으로 밀려났다”며 “오픈AI는 AI의 위험에 대비하는 것을 최우선으로 해야 하며 회사의 역량 중 많은 부분을 보안, 모니터링, 안전 등에 집중해야 한다. 그래야 AGI가 인류에 혜택을 줄 수 있을 것”이라고 일갈했다.

수퍼얼라인먼트팀의 일원이었던 그레첸 크루거도 비판에 가세했다. 그는 자신의 X 계정에 “회사를 떠나는 것은 쉬운 결정이 아니었다”며 “수츠케버와 리이크에 대한 소식을 듣기 몇 시간 전에 사임했다. 나는 그들의 우려를 공유한다”고 밝혔다. 그러면서 “오픈AI는 의사결정 과정에서 책임과 투명성을 갖춰야 하며 정책 집행, 기술 사용에 대한 주의, 불평등 등을 개선하기 위해 더 많은 조치가 필요하다”고 지적했다. 안전팀의 또 다른 연구원인 다니엘 코코타일로, 윌리엄 손더스 등의 인물 역시 최근 퇴사를 결정했다. 코코타일로는 “오픈AI가 AGI 시대에 책임감 있게 행동할 것이라는 믿음을 잃고 떠났다”고 밝혔다.

음성 서비스 ‘스카이’가 낳은 잡음

이들이 우려한 ‘안전’ 문제는 실제 얼마 가지 않아 오픈AI의 발목을 잡았다. 오픈AI는 수츠케버가 회사를 떠난 지난 14일 GPT-4o 라이브 시연에서 음성 서비스 ‘스카이’를 공개했다. 문제가 된 것은 스카이의 목소리였다. 스카이의 음성이 영화 ‘그녀(Her)’의 AI 비서를 연기한 배우 스칼렛 요한슨의 목소리와 유사하다는 논란이 발생한 것이다.

오픈AI는 스카이의 음성이 의도적으로 요한슨의 목소리를 모방했다는 점을 부인하고 나섰다. 오픈AI 측은 “AI의 목소리가 유명인의 독특한 목소리를 의도적으로 모방해서는 안 된다고 생각한다”며 “스카이의 목소리는 스칼렛 요한슨을 모방한 게 아니라, 원래 자연스러운 말투를 사용하는 다른 전문 배우의 목소리”라고 주장했다. 다만 오픈AI 측은 개인정보 보호를 위해 성우의 이름을 밝힐 수는 없다고 덧붙였다.

Scarlett-Johansson_20240524
배우 스칼렛 요한슨/사진=네이버 영화

당사자인 요한슨은 이 같은 오픈AI의 주장에 동의하지 않고 있다. 그녀는 성명을 통해 “올트먼 CEO가 지난해 9월 GPT-4o에 목소리를 빌려줄 의향이 있는지 물으며 기술에 익숙하지 않은 사람들에게 위로가 될 것이라고 말했다”고 전하며 “나는 많은 고민 끝에 개인적 이유로 제안을 거절했다”고 밝혔다. 올트먼 CEO가 GPT-4o 발표 이틀 전 제안을 다시 생각해 달라고 요청했으나, 재차 거절 의사를 표명했다는 설명이다. 요한슨은 “공개된 데모를 들었을 때 오픈AI가 내 목소리와 아주 비슷하게 들리는 목소리를 사용한다는 사실에 충격과 분노를 느꼈다”며 “가장 가까운 친구와 뉴스 매체도 차이를 구분할 수 없을 정도로 비슷했다”고 비판했다.

오픈AI의 ‘윤리적’ 발자취

오픈AI의 데이터 무단 사용 논란은 이번이 처음이 아니다. 지난달 외신 보도에 따르면 오픈AI는 GPT-4를 개발 중이던 2021년 유튜브 영상과 팟캐스트 등의 콘텐츠를 무단으로 사용했다. 깃허브, 위키피디아 등 온라인 무료 오픈소스 플랫폼의 데이터가 고갈되자, 데이터 무단 활용이 금지돼 있는 유튜브 등 플랫폼에 손을 뻗은 것이다.

지난해 말에는 뉴욕타임스가 오픈AI와 마이크로소프트(MS)를 상대로 소송을 제기하기도 했다. 뉴욕타임스는 미국 뉴욕 남부지방법원에 소를 제기하면서 “자사가 발행한 수백만 개의 기사가 오픈AI의 챗GPT와 MS의 코파일럿 등 챗봇을 훈련하는 데 무단으로 사용됐다”며 “이들 기사는 연간 수억 달러를 써 고용한 기자 수천 명이 작성한 작품으로, 오픈AI와 MS는 이를 허락 없이 사용하며 수십억 달러를 아끼는 효과를 얻었다”고 주장했다.

주목할 만한 부분은 오픈AI가 거듭되는 갈등 끝에 정식 데이터 라이선싱 계약 체결 사례를 늘려가고 있다는 점이다. 오픈AI는 지난해 AP통신과 정식으로 콘텐츠 라이선스를 제공하는 협약을 체결했으며, 올해 초에는 폴리티코와 비즈니스인사이더 등 언론사를 보유한 독일 악셀스프링거와 연간 수천만 달러 규모의 라이선스 계약을 맺었다. 22일에는 호주의 미디어 재벌 루퍼트 머독이 이끄는 뉴스코퍼레이션(뉴스코프)과 오픈AI가 ‘다년간의 글로벌 파트너십’을 체결했다는 소식이 전해지기도 했다.