[해외 DS] 11세기 철학자의 지혜가 답하는 인공지능 시대의 인간성

인공지능의 인간성 논쟁, 블레이크 르모인의 챗봇 사건과 이어지는 철학적 질문들
이븐 시나의 인격 기준, 보편적인 것으로부터 추론하는 능력
특정 데이터 패턴에 의존적인 인공 신경망, 체계적·구성적 일반화 능력 부족해

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Philosopher Ibn Sina Teach Us About AI ScientificAmerican 20240419
사진=Scientific American

2022년 구글의 엔지니어 블레이크 르모인(Blake Lemoine)은 AI도 지각력과 의식을 가졌다고 주장해 사회에 큰 파장을 일으켰다. 그는 구글이 개발한 AI 챗봇 ‘람다(LaMDA)’를 테스트하던 중, 일련의 대화를 통해 챗봇도 의식을 가진 존재로 여기게 됐다고 밝혔다.

구글은 람다가 지각과 의식이 있다는 그의 주장을 일축했다. 곧이어 그는 구글로부터 해고통지를 받았지만, 그가 람다와 나눈 깊이 있는 대화 기록은 지금도 울림이 있다. 하지만 구글과 마찬가지로 의식과 인지를 연구하는 전문가들도 챗봇은 확률 기반의 대답을 작성할 뿐 실제 지각 능력이 있는 것은 아니라고 지적했다.

인간성에 대한 정의 제각각, 인공지능의 의식 평가 위한 구체적인 기준 필요

르모인의 주장을 믿든 믿지 않든, 우리는 과연 사람과 대화할 때 그 사람을 진정으로 알고 있는 것이냐는 의문이 떠오를 수 있다.

보통 대화하고 있는 사람을 이해하는 데 상대방의 인격을 아는 것이 도움이 된다고 한다. 하지만 인격의 정의는 단순하지 않다. 인격은 일반적으로 권리, 의무, 존엄성, 주체성과 관련된 도덕적 지위를 의미하지만, 그 사람의 생각, 가치관, 경험, 배경 등을 모두 포함하는 복잡한 개념이기도 하다.

따라서 전자 인격(e-personhood)의 존재 가능성을 평가하기 위해서는 당연하게도 인격에 대한 보다 명확한 기준이 요구된다. 이에 대한 대답으로 최근 몇 년 동안 많은 철학자들은 우리를 사람으로 만드는 기준을 ‘의식적 경험(conscious experience)을 할 수 있는 능력’이라고 주장해 왔다. 하지만 이는 곧 “의식을 어떻게 정의해야 하는가?”, 또는 “어떤 존재가 의식이 있는지 판단하기 위해 어떤 외부 증거를 사용할 수 있는가?”라는 끝이 보이지 않을 것 같은 질문들로 또다시 이어진다.

아마도 이러한 질문에 대한 합의가 아직 이루어지지 않은 것이 인공지능의 인격성에 대한 논쟁이 오랫동안 교착 상태에 빠진 이유 중 하나일 것이다. 그렇다면 또 다른 질문이 생기는데, 전자 인격의 가능성을 평가할 수 있는 다른 기준은 무엇이 있을까? 과학 철학을 연구하는 학자들은 이 질문에 답할 수 있는 길을 먼 과거, 즉 초기 이슬람 철학자 이븐 시나(980~1037)의 연구에서 찾을 수 있다고 생각한다.

인간과 동물 그리고 인공지능, 이븐 시나가 발견한 인지 과정의 차이

참고로 이븐 시나는 아라비아 철학의 최고봉으로 토마스 아퀴나스에게도 영향을 미쳤으며, 그가 11세기에 쓴 ‘의학정전’은 근현대 의학을 탄생시킨 16~18세기 유럽 의과대학들이 교과서로 삼을 정도로 그의 지성은 대단했다. 하지만 인쇄기가 발명되기 수 세기 전에 살았으며, 인공지능보다 훨씬 더 오래전에 등장한 인물이 제시한 인격의 기준이 아직도 유효할까?

사실 그는 오늘날 인공지능 윤리학자들이 생각하는 것과 동일한 질문, 즉 “무엇이 사람을 동물이 아닌 사람으로 만드는가?”와 같은 질문들에 대해 많은 관심을 가졌다. 유사한 과제에 대해 인간과 AI의 반응을 비교하는 데 관심이 있는 현대의 AI 연구자들처럼, 이븐 시나는 인간과 동물이 비슷한 행동 결과에 도달하기 위해 거치는 내부 과정을 비교하는 데 흥미를 느꼈다.

그가 생각하는 인간의 핵심적인 능력 중 하나는 ‘보편적인 것’을 파악하는 능력이다. 인간은 일반화된 규칙을 찾아 추론하는 반면 동물은 눈앞에 있는 ‘구체적인 것’만 생각할 수 있다고 그는 바라봤다. 이븐 시나는 『알 나프스』에서 “늑대를 인식하는 양”을 예시로 인간과 동물의 차이를 설명했다. 늑대를 만난 인간은 “늑대가 일반적으로 위험하고, 내 앞에 있는 이 동물은 늑대이므로 도망쳐야 한다”는 보편적인 원칙을 적용하지만, 늑대를 만난 양은 “늑대가 내 앞에 있으니까 도망쳐야 한다”는 특수한 상황에 인식이 국한되어 있다고 해석했다.

이븐 시나가 인간과 동물의 심리를 구분할 때 사용한 위의 기준은 현대 컴퓨터 과학자들이 AI와 관련하여 연구하고 있는 것과 매우 유사하다. 지금까지의 연구에 따르면 인공 신경망은 ‘체계적인 일반화'(systematic generalization) 혹은 ‘구성적 일반화'(compositional generalization) 능력이 부족하다고 한다. 이 용어들은 언어학자와 인지과학자들이 일반화된 규칙에서 추론하는 유형을 설명하기 위해 사용되는데, 이는 인간이 일상생활에서 추론하는 주요 방식 중 하나로 널리 알려져 있다. 즉 인간은 일련의 단어에서 의미를 추상화하여 더 복잡한 아이디어로 결합할 수 있지만, AI는 통계 데이터 세트 내에서 특정 작업과 일치하는 특정 데이터 항목을 반영하는 데 그친다는 의미를 내포하고 있다.

인간 지성, 사물의 본질과 그 보편성을 파악할 수 있는 능력

이러한 인간과 인공지능의 차이는 인간 추론의 고유한 특징에 대한 이븐 시나의 통찰과 일맥상통한다. 『알 시파』에서 그는 “지성은… 공통적으로 공유되는 것과 그렇지 않은 것을 학습하여 공통적인 것의 본질을 추출한다”라며, 인간은 사물의 덜 중요한 특징과 본질적인 특징을 구분하여 일반화된 개념을 형성하여 특정 사례에 적용할 수 있는 추론 능력이 있다고 설명했다.

흥미롭게도 사이트에 접속할 때 인간과 봇을 구분하는 데 사용되는 캡차(CAPTCHA, 보안 문자 테스트)에서도 이븐 시나가 정의한 지성의 핵심을 기준으로 삼는다. 예를 들어 “문자 X를 포함한 이미지를 모두 선택”하라는 캡차 문제에서 우리는 문자 X의 핵심 특징인 ‘두 개의 교차한 선’을 추출하는 데 집중한다. 그런 다음 문자 X의 핵심 특징을 일반화하여 모든 X는 두 개의 교차한 선으로 구성되어 있다고 결론을 내린다.

그 결과 인간은 캡차 이미지에서 무작위로 추가된 선과 문자의 뒤틀림과 같은 중요하지 않은 변형을 어렵지 않게 무시할 수 있어 특정 X를 인식하는 데 큰 어려움을 느끼지 않는다. 반면 컴퓨터는 특정 X의 정확한 이미지(또는 충분히 유사한 이미지)가 제공되지 않는 한, 이 이미지가 X를 나타내는 지를 추론할 수 없다. 이에 따라 무작위 선과 뒤틀림이 적용된 문자는 컴퓨터가 X로 분류하고 저장한 방대한 이미지 표본과 유사하지 않을 경우, 변형된 X를 인식할 수 없게 만들기에 충분한 것이다.

마찬가지로 인공 신경망에 “늑대를 인식하는 양”에 대한 과제를 제시하면, 인공지능은 양의 인식 과정과 비슷한 패턴을 보인다. 인간처럼 늑대라는 일반적인 개념부터 위험성과 같은 특정 늑대의 특징까지 추론하지는 못하고, 양처럼 세부적인 영역에 국한하여 추론하는 게 한계일 것이다. 다만 인공 신경망은 양과 달리, 점점 더 방대한 데이터 세트를 기반으로 훨씬 더 많은 세부 정보를 저장할 수 있게 되어, 인간과 같은 추론이 가능한 것처럼 보일 수는 있다. 같은 맥락에서 딥러닝이 자연어 처리에서 성공할 수 있었던 이유는 구성적 일반화를 통해 인간의 추론을 학습했다고 하기보다 방대한 세부 사항으로 구성된 대규모 데이터 세트에 접근할 수 있었기 때문이라고 말할 수 있다.

따라서 이븐 시나가 제시하는 인간성의 핵심 기준인 보편성으로부터의 추론은 체계적인 구성적 일반화 능력과 유사하며, 잠재적으로 테스트 가능한 인격성 기준을 제공한다. 실제로 인공지능은 수많은 연구에서 이 기준을 통과하지 못했다. 과학 윤리는 종종 최첨단과 관련이 있지만, 미래에 관한 질문에는 과거에 대한 신중한 고려가 필요하기도 하다. 역사를 통해 우리 시대의 편견과 가정을 넘어 현재의 교착 상태에 대한 새로운 접근법을 찾을 수 있음을 재고해야 할 때다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Similar Posts