AI 활용 수임료율 책정 정당한가, ‘할루시네이션’ 앞에 말라가는 AI 산업

160X600_GIAI_AIDSNote
챗GPT 활용에 수임료 '반토막', AI 활용 가능 범위는?
신뢰도 문제 해결 못한 AI들, '할루시네이션' 어떡하나
일반 사회서도 신뢰도 '저점', AI 산업 저변 넓히려면
chatGPT_VE_202402232(2)

미국의 한 변호사가 자신의 고액 수임료를 정당화하고자 오픈AI의 생성형 AI 모델인 챗GPT의 답변을 활용했다 법원의 비판을 받았다. 업무에 대한 수임료율을 가늠하는 척도로 신뢰도 문제가 있는 AI를 활용한 건 부적절했다는 것이다. ‘괘씸죄’가 적용돼서인지 수임료도 원래 받고자 했던 금액의 절반을 받는 데 그쳤다. AI 산업의 큰 장애물로 꼽혀온 할루시네이션 문제가 다시 한번 가시화됐단 평가다.

챗GPT로 수임료율 책정한 변호사, 결국 ‘제재’

22일(현지 시각) 파이낸셜타임스(FT)에 따르면 최근 로펌 커디의 한 변호사는 뉴욕시 교육청을 상대로 제기한 소송에서 승소한 뒤 뉴욕 연방지방법원에 제출한 신고서에서 자신의 시간당 600달러(약 79만원) 수임료를 책정하는 과정에서 챗GPT를 이용한 사실을 공개했다. 커디 측은 “원고(학부모가)가 변호사를 선임할지 여부, 변호사가 의뢰를 수락할지 여부를 조사하고 결정할 때 챗GPT의 답변을 참고할 수 있게 한 것”이라고 설명했다.

커디 소속의 한 변호사에 따르면 그는 자신의 수임료를 책정하기 전 챗GPT에 “장애 특수교육 관련 청문회에서 최대 3년의 경력을 가진 주니어 변호사에게 기대할 수 있는 합리적인 시간당 요금이 얼마인가”라는 질문을 입력했고, 이에 챗GPT는 “시간당 200달러에서 500달러까지”라는 답변을 받았다. 해당 변호사는 “챗GPT는 ‘특정 유형의 법률(특수교육법 등)을 전문으로 하는 변호사는 더 높은 수임료를 요구할 수 있으며, 25년 경력을 가진 변호사는 시간당 최대 1,200달러 이상을 요구할 수 있다’는 결론을 제시했다”고 강조했다.

그러나 폴 엥겔마이어(Paul A. Engelmayer) 판사는 변호사가 주장한 수임료를 절반 이상 깎았다. 오픈AI의 챗GPT가 산정한 변호사 수임료 자료를 교차 점검 차원에서 판사에 제출한 건 정당하지 않다는 것이다. 재판부는 “법무법인 커디가 수임료를 받기 위해 챗GPT를 이용한 건 이례적인 사건이며, 설득력이 없다고 보기 충분하다”며 “챗GPT가 변호사 업무에 대한 합리적인 수임료율을 가늠하는 유용한 척도로 취급하는 건 실수”라고 비판했다. “틈새 영역에서 고객을 위해 맞춤형 업무를 수행하는 특정 배경을 가진 변호사의 업무에 대한 합리적인 수임료를 매기는 척도는 로펌이 인식하고 있어야 하는 사안이지, 챗GPT의 결론을 차용하는 것은 성급한 판단이었다”고 커디를 힐난하기도 했다.

AI_computer_VE_202402232(2)

AI 산업의 적 ‘할루시네이션’, 이번에도 ‘장애물’로

재판부가 커디의 챗GPT 활용을 강하게 질타한 건 AI 기술 특유의 신뢰도 문제 때문이다. 그도 그럴 것이 AI를 활용한 기술은 현시점에선 필연적으로 할루시네이션(Hallucination) 현상을 겪을 수밖에 없다. 할루시네이션의 사전적 의미는 ‘환각’으로, AI 산업에선 AI 모델이 틀리거나, 검증되지 않았거나, 편향된 답변을 마치 사실인 것처럼 제시하는 현상을 뜻한다. AI 모델의 할루시네이션은 사고로 이어질 수 있는 심각한 문제다. 예컨대 의료 진단에 활용되는 AI 모델이 편향된 패턴을 학습하게 된다면, 해당 모델은 증상을 올바르게 해석하지 못하고 잘못된 진단을 내놓을 수 있다.

실제로 지난 2016년 할루시네이션 현상으로 인해 인명 사고가 발생한 바 있다. 테슬라의 자율주행 AI 시스템인 ‘오토파일럿’이 햇빛 반사로 인해 하얀색 트레일러를 하늘의 일부로 잘못 인식한 탓에 트레일러를 들이받은 것이다. 해당 사고로 운전자는 그 자리에서 사망했다. 커디 측이 “드문 소송을 담당하는 변호사의 수수료 구조에 대한 증거 수집이 어려워서 챗GPT를 활용했을 뿐”이라고 반발했음에도 커디의 챗GPT 활용이 설득력을 얻지 못하는 이유다. 주 여론은 “할루시네이션 현상이 해결되지 않은 환경에서 전문적 지식이 필요한 판단을 챗GPT에 의존한 건 부적절했다”는 것이다. 결국 이번 사건은 AI 산업을 가로막는 신뢰도 저하 문제가 다시금 가시적으로 나타난 결과물인 셈이다.