챗GPT 규제안 시동 건 美, “우선 60일간 의견 듣겠다”
美 조 바이든 행정부, 챗GPT 규제안 시동 걸었다 생성형 AI 우려, 미국 外 유럽 등에서도 다수 포착 챗GPT 위험성도 있지만, “무작정 규제만 해선 안 돼”
조 바이든 미국 행정부가 생성형 AI 챗GPT에 대한 규제 방안을 검토하기 시작했다. 부정확한 정보 확산, 범죄 악용 우려 등 챗GPT가 지닌 문제점이 점차 부각되고 있는 만큼 그 위험성을 사전에 차단하겠단 취지다. 미 행정부는 우선 공개 여론 수렴 절차에 돌입할 방침이다. 미국 상무부 산하 국가통신정보관리국(NTIA)에 따르면 공개 여론 수렴 절차는 향후 60일간 진행될 예정이다. 수렴된 의견들은 바이든 행정부 정책 입안자들에게 보고서 형식으로 전달돼 유용한 조언으로서 작용할 수 있을 것으로 보인다.
생성형 AI 우려에, 각국서도 규제 움직임
최근 바이든 대통령은 AI 기술의 위험성을 언급하며 기업들에 제품의 안전성, 그리고 기업의 책임을 거듭 강조한바 있다. 지난 4일 바이든 대통령은 백악관에서 열린 과학기술자문위원회 회의에서 “AI는 질병과 기후변화와 같은 어려운 문제를 처리하는 데 도움을 줄 수 있지만 우리 사회의 경제, 국가 안보에 대한 잠재적 위험도 해소해야 한다”며 “기술 기업들은 대중에 공개하기 전에 자사 제품을 안전하게 만들 책임이 있다고 목소리를 높였다. ‘AI가 위험하냐’는 질문에도 “그럴 수 있다”고 답했다.
불안감을 드러내는 건 미국만이 아니다. 앞서 지난달 31일 이탈리아는 세계에서 최초로 챗GPT에 대한 접속을 차단한 바 있다. 챗GPT가 이용자 연령을 따로 확인하지 않아 미성년자에게 부적합한 답변을 할 수 있으며 챗GPT 측에서 자국민의 개인정보를 수집하고 저장할 법적 근거가 없다는 이유에서다.
다른 국가에서도 챗GPT 등 생성형 AI에 대한 규제 움직임이 포착되고 있다. 아일랜드 보호 당국은 이탈리아 규제 당국과 함께 후속 조치를 취해 챗GPT에 대한 모든 사안을 유럽연합(EU) 데이터 보호 당국과 협력하겠다고 밝혔다. 프랑스 또한 챗GPT에 대한 2개의 민원을 조사 중에 있으며, 캐나다는 챗GPT가 정부 주체의 동의를 받지 않은 채 개인정보를 수집한 것으로 의심된다는 정황을 포착해 조사 중이다.
불안감 드러내는 이들 적지 않아
각계의 저명인사들도 생성형 AI에 대한 불안감을 드러냈다. 지난달 30일엔 AI의 급속한 발전을 우려한 저명인사 1,000여 명이 앞으로 최소 6개월간은 챗GPT의 개발을 중단해야 한다는 공개서한에 서명했다. 해당 공개서한엔 일론 머스크, 스티브 워즈니악, 앨런 알다 등 다양한 업계의 인사가 포함되어 있던 것으로 알려졌다.
저명한 언어학자로 꼽히는 노암 촘스키 교수는 이안 로버츠, 제프리 와트슨과 함께 챗GPT 등 생성형 AI는 ‘사이비 과학’일 뿐이라고 평가절하하기도 했다. 촘스키 교수 및 공동 저자들은 뉴욕 타임즈에 ‘챗GPT의 거짓 약속’이라는 기고문을 발표해 “챗GPT는 설계상 가능한 것과 불가능한 것을 구분하지 못한다”고 꼬집었다.
촘스키 교수는 ‘지구는 둥글다’는 명제를 대표적인 예시로 들었다. 챗GPT가 ‘지구는 평평하다’와 ‘지구는 둥글다’를 모두 학습한 뒤 시간이 흐르면 그저 확률이 높은 답을 제시할 뿐 진실을 대답할 수는 없을 것이라는 게 촘스키 교수의 비판이다. 기계 학습 AI는 ‘진짜 지능’과 달리 인과관계 등을 통해 옳고 그름을 판단하는 윤리적 사고를 일체 할 수 없다고 강조하기도 했다.
생성형 AI를 개발하는 기술기업들 또한 생성형 AI 규제의 필요성을 인정했다. 챗GPT를 개발한 오픈AI에 거액을 투자한 마이크로소프트는 성명을 통해 “생성형 AI에 대한 피드백을 광범위하게 받아들이고 문제를 신중히 고려하며 신속하게 행동하기 위해 이런 유형의 공공정책은 환영해야 한다”며 바이든 행정부의 조치를 지지하겠다고 밝혔다.
챗GPT 위험한 건 사실이지만
다만 일각에선 챗GPT에 대한 규제가 너무 과한 것 아니냐는 목소리도 나온다. 생성형 AI라 해봤자 ‘강인공지능’인 것도 아니고 그저 일종의 ‘고급 검색엔진’에 불과한데, 이를 규제안까지 만들어가며 막아서야 하냐는 것이다. 실제 여론 등을 살펴보면 사람들은 챗GPT의 개발을 강인공지능의 등장으로 생각하는 경향이 강한데, 이는 사실이 아니다. 챗GPT도 결국 넷상의 정보들을 취합해 가장 확률이 높은 결과물을 전달하는 약인공지능, 쓸만한 검색엔진 정도에 불과하다.
단 잘못된 정보를 걸러내고 악용될 소지를 없앨 수 있을 만한 관리는 꼭 필요할 것으로 보인다. 실제로 챗GPT는 ‘독도는 일본 땅’, ‘2023년 현재 대통령은 이재명 대통령’ 등 부정확한 답변을 수차례 내놓으며 사람들을 혼란에 빠트린 바 있다. 챗GPT는 악용 소지도 높다. 지난 3월엔 러시아 범죄집단이 챗GPT를 활용해 해킹 등을 시도한 정황이 확인돼 조사가 시작되기도 했다.
단순히 챗GPT는 위험하니 완전히 차단하자 식의 흑백논리에 빠져선 안 된다. 오히려 적절한 관리가 필요하다는 차원에서 챗GPT를 잠시 규제해 우리 문화가 생성형 AI를 받아들일 준비 시간을 주자는 의견이 더 그럴듯하다. 구글 또한 부정확한 정보를 양산해낼 가능성이 있으며 피싱 사이트 개설 등 악용 가능성이 있다. 그럼에도 구글이 상용화될 수 있었던 건 구글의 거름망 시스템 덕분이었다. 생성형 AI에 대해서도 이 같은 거름망 시스템이 형성될 시간이 필요하다. 생성형 AI는 하나의 미래 기술이다. 무작정 위험만 강조하고 규제만 외친다면 미래 기술에 대한 진보는커녕 퇴보만 일어날 것임을 글로벌 사회는 명심해야 할 것이다.