반도체보단 '컴퓨팅' 주력 GPU는 사실상 'AI 가속기' AI 서비스 이뤄지는 원천은 컴퓨팅파워 갖춘 데이터센터라고 한다. HBM 등 메모리만 강한 한국은 클라우드·서버 사업 키워야 한다.
H100만으로 '챗GPT' 같은 고성능의 AI를 학습시킬 수 없다. H100 GPU와 함께 돌아가는 CPU와 메모리, 네트워크 장치가 필요하고, 그렇게 만들어진 '고성능 서버 컴퓨터'를 수백 대 연결해 AI데이터센터를 만들어야 한다. 1만개 정도 GPU가 탑재된 데이터센터는 'AI 슈퍼 클러스터'라고 불린다.
엔비디아는 스스로를 '반도체' 기업이라고 부르지 않는다. '가속 컴퓨터' 회사라고 부른다. 그들이 고객에게 제공하는 제품은 '가속 컴퓨터'이지 '반도체'가 아니기 때문이다. 스마트폰에 들어가는 AI용 '온디바이스칩'에서는 '반도체'의 성능이 중요하겠지만, 데이터센터 차원으로 넘어가면 반도체만큼이나 다른 것들이 중요하다.
AI데이터센터는 '클라우드' 형태로 서비스되고 그 데이터센터를 직접 소유하지 않더라도 AI데이터센터를 사용한 만큼 돈을 내면 된다. AI데이터센터의 '컴퓨팅 파워'에 돈을 내는 것이다.
그래서 샘 올트먼 오픈AI 최고경영자(CEO)는 최근 실리콘밸리 특파원들과 만나 "컴퓨팅이 미래에 가장 중요한 화폐(Currency)가 될 것"이라고 말하기도 했다. 젠슨 황 엔비디아 CEO는 앞으로 4~5년간 최소 1조달러 규모의 AI데이터센터 투자가 이뤄질 것이라고 예상했다.
이런 측면에서 보면 앞으로 커질 'AI데이터센터' 산업에서 한국의 자리를 찾기가 쉽지 않아 보인다. 삼성전자나 우리 스타트업이 엔비디아와 경쟁할 훌륭한 GPU를 만들어도 이를 사용해줄 고객과 이것이 설치될 데이터센터가 있어야 한다. 그런데 한국에는 서버 컴퓨터를 만드는 회사도 없고, 아마존웹서비스(AWS)나 애저 같은 대형 클라우드 사업자도 없고, AI데이터센터를 구축하는 회사도 많지 않다. 중국 화웨이는 AI 반도체도 만들고, 서버도 직접 만든다. 중국은 알리바바와 텐센트가 중국 내 클라우드 사업을 지배하고 있다.
큰 기회가 있는 AI데이터센터 밸류체인에서 한국이 차지하는 것은 고대역폭메모리(HBM) 같은 '메모리 반도체'뿐이다.
댓글