[해외 DS] 백악관에 모인 美 빅테크 7개 기업 수장들, “책임 있는 AI 개발 앞장 서겠다”
아마존, 메타를 포함한 미국 빅테크 7개 기업, AI 기술에 대한 ‘책임 있는 개발’ 의지 밝혀 미국, 유럽 연합을 중심으로 AI 규제 관련 글로벌 기준 확립될 것으로 전망 이같은 시대적 흐름에 탑승하지 못하는 AI 규제 인프라 후진국들도 같이 움직여야
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.
폭스뉴스, 뉴욕타임스(NYT) 등에 따르면 21일(현지시간) 미국 대통령 바이든이 아마존, 오픈AI, 메타, 인플렉션AI, 앤트로픽, 구글, 마이크로소프트의 7개 AI 빅테크 기업을 초청해 사담을 가진 것으로 알려졌다. 해당 사담에서 바이든은 AI 기업들에 대한 ‘책임 있는 AI 개발’을 당부했다.
바이든, “빅테크 기업들, AI 기술이 인류에 끼칠 잠재적 해악 뿌리 뽑아야”
이날 바이든이 7개 기업으로부터 받아낸 자발적인 합의안은 총 세 가지다. 첫 번째로 AI 기업은 관련 프로덕트・서비스 출시 전 대내외적으로 보안 테스트를 실시해야 한다. 이때 해당 기업의 이해관계와는 무관한 전문가가 사이버 보안 및 생명 윤리 등의 영역에 대한 위험을 평가하기 위해 다방면의 테스트를 수행한다. 또한 이렇게 평가된 결과는 산업 전반에 걸쳐 정부, 시민 사회 및 학계와 공유해야 한다.
두 번째로 AI 기업은 보안을 최우선으로 하는 시스템을 구축해야 한다. 즉 사이버 보안에 충분한 예산을 투자해 AI 산업 관련 특허가 유출되지 않도록 해야 한다는 것이다. 딥러닝 알고리즘 특성상 투입 데이터에 대한 모델의 ‘가중치’가 AI의 성능을 결정하는 중요 요인인데, 이같은 보안에 대한 합의안은 최근 일부 실리콘 밸리에서 모델의 가중치를 빼내려는 시도가 급증하고 있는 점을 염두에 둔 것으로 풀이된다.
세 번째로 AI 기업은 생성형 AI가 산출하는 결과물에 대해 AI가 생성했다는 콘텐츠를 식별하는 용도인 ‘워터마크’ 표기를 당사 차원에서 의무화해야 한다. 최근 딥 러닝이 발전하면서 생성형 AI가 만들어 내는 ‘딥페이크’ 콘텐츠가 이제는 현실과 구분하지 못할 정도의 수준에 도달한 만큼, 이를 악용해 사회적으로 부정적인 파급이 발생하지 않도록 조치를 취해야 한다는 것이다.
이와 관련해 백악관 관계자 A씨는 “오늘 참여한 AI 테크 기업 CEO 7명은 전반적으로 AI 시스템의 잠재적인 사회적 위험에 대해 충분히 인지하고 있는 것으로 보인다”며 “또한 이들은 성・인종적 차별 방지, 개인 정보 보호에 대한 기본적인 사항에 대한 당사 정책 마련은 물론, 암 예방 및 기후 변화와 같은 사회적으로 큰 문제를 해결하는 AI 기술을 개발하는데 총력을 기울일 것이라고 의지를 다졌다”고 밝혔다.
AI 규제 글로벌 선도하겠다는 미국
백악관에 따르면 이번 합의는 AI 관련 규제 개발 및 시행의 ‘첫 번째 단계’다. 미 행정부는 일반에 배포된 AI 시스템이 안전하고 신뢰할 수 있도록 지속적으로 행정 조치를 취하고 법안을 추진할 것이라고 강조했다. 특히 미국의 토니 블링컨 국무장관은 “AI가 권위주의자들의 도구로 전락하느냐, 또는 인류를 더 긍정적인 방향으로 이끌 것이냐는 우리(미국)가 AI를 ‘어떻게’ 사용하는지에 달려있다”며 AI 규제에 대한 책임감을 드러냈다.
실례로 미국 의회는 23일(현지시간) AI가 끼칠 수 있는 잠재적 위험을 ‘국가 안보’ 차원에서 관리하겠다는 내용을 담은 국방수권법(NDAA) 도입을 추진하고 있다. 미 국가 안보의 근간이 되는 법안에 AI 관련 내용이 포함되는 것은 이번이 처음이다. 이번 법안에는 ‘화이트 해커(white-hat hacker)’가 국방부 AI 시스템 보안의 취약점을 찾는 데 기여할 수 있도록 독려하는 ‘버그 바운티’ 프로그램, 국방부 AI 기능을 정량적으로 평가할 수 있는 가이드라인 등이 담길 예정이다.
이와 관련해 윤석열 대통령은 미국이 선도하는 ‘AI 안전조치 강화’에 대해 호응의 뜻을 나타냈다. 윤 대통령은 24일 트위터를 통해 “바이든 대통령과 AI 선도 기업들의 자발적인 약속이 지난해 9월 뉴욕, 올해 6월 파리에서 제시한 디지털 비전과 뜻을 같이한다는 점에서 기쁘다”며 “글로벌 AI 거버넌스에 대해 미국 등 같은 생각을 가진 파트너들과 협력하기를 바란다”고 전했다.
세계적인 AI 규제 흐름, 그러나 뒤처지는 국가들도 챙겨야
미국이 강조하는 AI 기술의 적절한 규제 필요성은 지난 5월 나흘간 열린 G7 정상회담에서 공유된 바 있다. 해당 회의에서 미국 등 주요 7개국(G7)은 다양한 이해관계자 의견을 반영한 AI 표준을 개발하기 위한 ‘AI 국제 프레임워크’를 결성하는 것에 뜻을 모았다. 이날 G7은 공동 성명서를 통해 “AI, 메타버스, 양자 과학, 디지털 경제는 우리의 민주 가치를 보호하며 ‘책임 있게’ 발전해야 한다”고 밝혔다.
이와 동일한 맥락으로 유럽연합(EU)은 이미 2021년 4월부터 일찌감치 AI 법(AI Act)을 통해 관련 규제 틀을 만들고, 현재까지 추진해 오고 있다. 해당 법안에는 AI 시스템을 ▲잘못된 정보 유포 ▲차별적 언어 사용 ▲사용자의 생체 정보 수집 정도에 따라 4개 위험 등급으로 나누는 등 세부적인 관리 지침을 담고 있다. 이를 통해 전 세계 AI 업계의 규제 표준을 만들겠다는 전략이다.
그러나 일각에선 이같은 경제 선진국 중심 AI 규제 글로벌 기준 수립 움직임이 사실상 ‘제자리 맴돌기’가 아니냐는 관측이 나온다. 물론 AI 기술을 선도하는 미국, 유럽 연합 중심으로 관련 규제의 판도를 짜는 것은 당연한 수순이나, 상대적으로 규제 인프라가 미비한 ‘사각 지대’에 있는 국가들의 경우 해당 조치들이 무색하다는 지적이다. 예컨대 영국 디지털 혁신 컨설팅 회사 옥스퍼드 인사이트가 발표한 ‘2022 정부 AI 준비지수’에 따르면 AI 기술이 상대적으로 뒤처진 베트남, 태국 등 아시아 후진국들의 경우, 적절한 관련 규제 방침이 없어 AI 기술의 제대로 된 활용에 난항을 겪는 것으로 알려졌다.
*편집진: 영어 원문의 출처는 AI 비즈니스(AI Business)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.