CXL vs HBM, AI시대 메모리 기술력 표준 전쟁과 CXL 2.0 주도하는 삼성전자·SK하이닉스

160X600_GIAI_AIDSNote
HBM의 전력 과다 소모 탓 차세대 메모리 인터페이스 기술인 CXL에 관심↑
CXL이 기술적으로는 우위에 있지만 호환되는 부품은 아직 부족
국내 기업들 CXL 컨트롤로 외주 중, 삼성전자는 자체 생산에 박차

지난 13일(현지시간) 삼성전자와 AMD 간 HBM 메모리 납품 계약 소식이 알려지면서 AI 반도체 업계에서는 1~2년 내에 메모리 기술력 표준 전쟁이 또 한번 가시화될 것이라는 전망이 나온다. AMD에서 지난해 말에 출시한 MI300X가 사실상 Nvidia가 독점하고 있는 생성형 AI용 GPU 시장을 재편할 수도 있다는 가능성이 제기되면서다.

현재 GPU 시장은 Nvidia가 70% 이상의 점유율을 보유하고 있지만, H100 GPU 1대가 3만 달러(약 4,000만원)를 넘는 데다, Nvidia의 HBM 의존성이 지나친 전력 소비를 야기해 하드웨어 전반적인 성능을 떨어뜨린다는 우려도 제기되고 있기 때문이다. 이에 업계에서는 AMD의 MI300X 시장 침투와 함께, 지난 2019년부터 Intel이 주도하고 있는 컴퓨터 익스프레스 링크(Computer Express Link, CXL)가 주변기기 간의 통신 표준으로 등장할 경우, 굳이 HBM에 의존하지 않더라도 메모리 속도를 높일 수 있는 만큼 Nvidia 그래픽 카드에 대한 의존성이 떨어질 것으로 내다보고 있다.

expanding-the-limits-of-memory-bandwidth_4
CXL 메모리 사용 예시 / 출처=CXL Consortium

CXL vs HBM, AI시대 메모리 기술력 표준 전쟁

CXL은 고성능 서버 시스템에서 중앙처리장치(CPU)와 다른 디바이스(그래픽처리장치, 가속기, D램, 메모리 등)를 보다 효율적으로 연결하기 위해 개발된 PCIe(직렬 구조의 고속 인터페이스) 기반 통합 인터페이스 기술로, 제한된 메모리 용량과 대역폭, 처리 지연 문제를 해결하기 위한 목적으로 고안됐다. 기존 서버 시스템은 CPU 당 장착할 수 있는 D램 모듈과 최대 확장 용량이 각각 16개, 8TB로 제한돼 대규모 데이터를 처리하기에는 역부족이나, CXL을 사용하면 모듈을 추가하는 방식으로 메모리 용량과 대역폭을 크게 늘릴 수 있다.

또한 CXL은 각 장치마다 존재했던 다수의 인터페이스를 하나로 통합해 통신 시 발생하는 지연 현상을 최소화했으며, CPU와 가속기를 함께 활용해 빠른 AI 연산과 메모리 공유가 가능하게 함으로써 데이터 처리 속도를 혁신적으로 향상시켰다. 즉 CXL은 기존 시스템의 변형 없이 주변장치 간 안정된 인터페이스 환경을 유지하면서 고성능, 저전력으로 빠른 데이터 처리가 가능하게 만드는 차세대 메모리 솔루션으로, 이를 활용하면 시스템 운영 비용을 절감할 수 있다. 

전문가들은 서버용 CPU인 Intel의 제온 프로세서나 AMD의 에픽 프로세서에 적용될 경우 데이터센터 전체를 한 대의 시스템처럼 쓸 수 있을 것으로 내다본다. 바둑기사 이세돌과의 승부로 유명한 알파고를 만들었던 2016년만 해도 CPU 1,106대를 하나로 묶던 당시 CPU간 정보 교환 속도 한계로 더 이상 집적하는 것을 포기했다고 설명했던 것에 비해 엄청난 계산 속도 향상을 기대할 수 있다.

HBM은 현재 그래픽 카드의 메모리 처리 속도 향상을 위해서만 쓰이고 있지만, CXL이 표준으로 자리 잡을 경우 메모리 칩 간의 통신 속도, CPU와 기타 하드웨어 간의 통신 속도가 압도적으로 개선됐다. HBM보다 더 널리 쓰이는 표준으로 자리 잡을 수 있다는 관측이 나오는 이유다.

23364_20844_539
CXL 2.0 기술은 메모리 전 용량을 유휴없이 사용할 수 있다 / 출처=삼성전자

CXL 2.0 시대 이끄는 삼성전자와 SK하이닉스

인텔 주도하에 지난 2019년부터 CXL 컨소시엄이 구성됐고, 국내에서는 삼성전자와 SK하이닉스가 ‘컨트리뷰터 멤버’로 가입된 상태다. 업계에 따르면 기존 DDR4, DDR5 등 메모리 모듈은 CPU 1개에 최대 16개 모듈만 사용할 수 있었지만, CXL을 적용하면 D램 용량을 대폭 늘릴 수 있다. 삼성전자와 SK하이닉스는 각각 128GB CXL 2.0 메모리와 96GB CXL 2.0 메모리를 생산할 수 있다.

현시점 업계에서는 두 기업의 CXL 2.0 기술력 격차를 크게 보지 않는다. 두 기업 모두 CXL 컨트롤러를 같은 중국 기업에 의지하고 있기 때문이다. 삼성전자는 그동안 중국 팹리스 업체인 몬타지테크놀로지로부터 CXL 컨트롤러를 전량 공급받아 왔다. 몬타지는 CXL 설계자산(IP)를 구입해서 CXL 컨트롤러를 만든 다음에 메모리 업체에 판매하고, 삼성전자는 모듈에 자사의 D램과 몬타지의 CXL 컨트롤러를 탑재해 CXL 메모리를 개발하는 방식이다. SK하이닉스 또한 몬타지로부터 CXL 컨트롤러를 공급받는 것으로 알려져 있다.

그러나 삼성전자는 CXL 메모리 수익성을 높이고, 장기적으로 경쟁력을 확보하기 위해 자체 CXL 컨트롤러를 개발을 서두르겠다는 방침이다. 시장조사업체 욜디벨롭먼트에 따르면 지난해 기준 CXL 컨트롤러 가격은 약 60달러로, 자체 개발이 될 경우 생산 비용을 큰 폭으로 절감할 수 있는 데다, CXL 컨소시엄에서도 주도권을 확보할 수 있다는 판단에 따른 것으로 풀이된다.

CXL이 시장 장악하면 HBM은 사양 기술될 것 예상도

삼성전자가 지난해 5월 CXL 2.0을 지원하는 128GB D램을 양산하겠다고 밝혔다가 시장 출시가 연기되고 있는 것도 자체 CXL 컨트롤러 개발과 무관하지 않은 것으로 분석된다. 지난 2022년 CXL 1.1 기반 D램에 이어 1년 만에 CXL 2.0을 지원하는 상품을 출시했지만, 아직 시장에서 CXL 호환 제품을 쉽게 찾아보기 어려운 만큼, 하드웨어 업체들의 성장을 기다리면서 CXL 시대를 준비하고 있다는 것이다.

HBM의 경우도 SK하이닉스가 일본 게임업체들과 기술 개발을 했던 것은 2010년대 초반까지 거슬러 올라가지만, 실제로 시장의 각광을 받게 된 것은 Nvidia가 AI 연산을 지원하면서 HBM 기반 D램 칩을 필요로 했기 때문이다.

반도체 업계에서는 당분간은 Nvidia 그래픽 카드의 핵심 부품으로 자리 잡은 HBM 메모리에 대한 수요가 시장의 주류를 이루겠지만, 전력 소모량에 대한 불만이 IT업계 곳곳에서 튀어나오고 있는 만큼 차세대 기술로 불리는 CXL에 대한 관심이 점점 더 증가할 것으로 내다본다. 이미 서버용 컴퓨터 부품 시장에서는 CXL 지원이 필수로 자리 잡았고, AMD가 소비자용 CPU에 CXL 호환을 확대한다고 선언한 만큼, 향후 빠르게 시장이 커질 것이라는 전망이다.