[해외 DS] ‘AI 임팩트’ 설문조사 편향 논란, “인류를 멸망시킬 가능성 5%?”

AI 연구자 2,778명 대상 설문조사
자금 출처와 질문 구성에 대한 비판 제기
AI 위험에 대한 신중한 연구와 논의가 필요해

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소 (GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


AI_survey_exaggerates_apocalyptic_risks_ScientificAmerican_20240131
사진=Scientific American

인공지능이 인류를 멸망시킬 가능성이 5%라는 한 가지 주제가 1월 초의 모든 헤드라인을 장식했다. 이는 한 논문에서 실시한 설문조사의 냉정한 결과였다.

이번 설문은 유명 AI 연구 학회와 학술지에 연구 결과를 발표하고 게재한 2,778명의 연구자를 대상으로 실시됐고, 지금까지 AI의 실존적 위험과 관련해 가장 큰 규모로 진행된 설문조사다. 이 논문의 공동 주저자이자 설문조사를 실시한 AI 임팩트의 수석 연구원 카티아 그레이스(Katja Grace)는 “사람들은 AI 연구자들이 이러한 문제에 대해 어떻게 생각하는지 궁금해한다”고 말했다.

‘효과적 이타주의’, AI 실존적 위험 과장한 설문조사

그러나 일부 AI 연구자들은 설문조사 결과가 편향된 시각에 치우쳐 있다고 지적했다. AI 임팩트는 효과적 이타주의(실리콘밸리에서 인기를 끌고 있는 신흥 철학적 운동으로, AI와 인류 파멸적 미래를 전망하는 것으로 유명하다)를 장려하는 오픈 필란트로피 등 여러 단체로부터 부분적으로 자금을 지원받았다. 효과적 이타주의(Effective Altruism, EA)를 지지하는 사람들은 인간의 삶에 최대한의 혜택을 주기 위해 자원을 사용하는 것을 목표로 하며, 핵무기에 버금가는 인류의 실존적 위협 중 하나로 AI에 점점 더 초점을 맞추고 있다. 이러한 자금 지원으로 인해 일부 연구자들이 설문조사의 신뢰성에 문제를 제기한 것이다.

한편 설문조사의 질문 구성에 대해서도 강한 비판이 있었다. 2016년에 이어 세 번째로 실시된 AI 임팩트의 최근 설문조사에서는 연구자들에게 AI가 인류의 ‘멸종'(또는 이와 유사하게 영구적이고 심각한 능력 상실)을 초래할 확률을 추정하도록 요청했는데, 이미 질문에서 인공지능이 실존적 위협을 가한다는 생각을 전제·조장한다고 인공지능발전협회(AAAI)의 전 회장인 토마스 디트리히(Thomas G. Dietterich)는 해석했다.

디트리히는 설문조사에 참여해 달라는 요청을 받았지만, 질문지를 읽은 후 설문조사 참여를 거절했다. 그는 “예년과 마찬가지로 많은 질문이 인공지능의 실존적 위험 관점에서 출제됐다”라며, 특히 설문조사의 일부 질문은 응답자에게 가능한 모든 작업에서 인간을 능가할 수 있는 기계로 정의되는 높은 수준의 인공지능이 결국 구축될 것이라고 직접적으로 가정하도록 요구했다고 전했다. “신중한 위험 분석과 관련 위험을 완화하기 위한 정책 수립보다는 ‘얼마나 걱정해야 하는가’에 여전히 초점이 맞춰져 있다”고 그는 덧붙였다.

AI 위험성에 대한 근거 빈약, 추측성 위험 보다 당면한 문제 집중해야

비평가들은 이러한 추측성 여론조사 결과에 대한 과장과 집착이 차별, 프라이버시, 노동권 등 다른 시급한 문제들을 포함하여 오늘날 AI가 이미 초래하고 있는 위험에 대한 논의, 연구, 규제에 대한 사회의 관심을 분산시킨다고 우려했다. 네덜란드 암스테르담대학교의 머신러닝 연구원 팀 반 에르벤(Tim van Erven)은 “이 설문조사는 어떤 메커니즘에 의해 인류가 멸종할 것인지에 대한 자세한 설명 없이 근거 없는 추측만 강조하고 있다”며, “이러한 모호하고 과장된 개념은 지금 일어나고 있는 평범하지만 훨씬 더 시급한 문제로부터 주의를 돌리기 위한 수단으로 사용되기 때문에 위험하다”고 강조했다.

아울러 연구자들에게 먼 미래에 대한 추측을 요구하는 설문조사가 AI 위험의 진실을 드러낼 수 있는지에 대한 의문도 남아있다. 응답자에게 자신의 예측을 뒷받침할 근거를 요구하지도 않기 때문이다. 또한 설문조사에 응답한 연구자들이 전문가 집단에 속한 것은 맞지만, 그들 대다수가 AI 위험 분석을 신중히 수행하고 있다고 보기는 어렵다. 따라서 AI 위험의 실체를 파악하기 위해선 설문조사보단 별도의 연구 활동이 필요하다는 게 비평가들의 주장이다.

“오늘날 점점 더 많은 사람이 AI 산업과 다가오는 AI 규제 의제를 EA에 맡기는 것을 재고하고 있다”고 효과적인 이타주의자들의 활동을 연구해 온 커뮤니케이션 연구원이자 저널리스트인 니릿 와이즈-블랫(Nirit Weiss-Blatt)은 언급했다. EA의 평판이 나빠지고 있고 반발도 거세지고 있다는 의미다.

대표성 논란 지속, 참여자 특성 편향 우려

그레이스와 AI 임팩트의 동료들은 자신들의 연구를 옹호하면서 지난 몇 년간 AI 임팩트의 연구에 대한 비판, 특히 상대적으로 적은 수의 응답자가 해당 분야를 적절히 대표하지 못했다는 주장을 해결하기 위해 열심히 노력했다고 피력했다. 그래서 이번 설문조사에서는 더 많은 사람에게 다가가고 참가자를 모집하는 콘퍼런스를 확대하여 응답자 수를 늘리려고 노력했다는 것이다.

하지만 일각에서는 참여자의 ‘수’보다 참여 ‘폭’이 충분하지 않다고 비판했다. “FAccT[공정성, 책임성, 투명성에 관한 미국 컴퓨터학회(ACM) 콘퍼런스]나 AIES[인공지능, 윤리, 사회에 관한 AAAI/ACM 콘퍼런스]처럼 윤리와 AI를 명시적으로 다루는 콘퍼런스는 여전히 포함되지 않은 것으로 알고 있다”라고 AI 회사 허깅페이스의 수석 윤리과학자 마가렛 미첼(Margaret Mitchell)은 말했다.

미첼은 설문조사에 참여하라는 초대를 받았지만 응하지 않았다. 그녀는 “일반적으로 모르는 사람의 업무 요청 이메일에는 응답하지 않는다”며, “응답할 이메일이 많지 않은 사람이거나 자신의 목소리를 내고 싶어 하는 사람, 즉 주니어 층이 더 많이 응답할 가능성이 높다”고 설명했다. 결과적으로 양질의 응답이 집계되지 않았을 것으로 예상되기 때문에 설문조사의 대표성 왜곡에 의구심이 해소되지 않고 있다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.