[곽수종의 이슈 진단] 26만개 엔비디아 GPU에 거는 기대와 경계심

입력 2025-11-26 14:51:55 수정 2025-11-26 18:03:22
로봇
mWiz 이 기사 포인트

곽수종(리엔경제 연구소, 경제학 박사)
곽수종(리엔경제 연구소, 경제학 박사)

AI 도입은 선택이 아니라 필수인 시대에 젠슨 황이 한국에 커다란 선물이라도 주고 간 듯 야단법석이다. 26만개 블랙웰(Blackwell) GPU 공급은 마치 당장이라도 한국의 AI 생태계(산업, 클라우드, 제조 등)에 걸친 인프라 확대를 가져올 것처럼 무한 긍정의 '에피네프린(Epinephrine)'이 솟구치 듯 들떠있다.

특히 삼성, SK, 현대 같은 대기업들이 AI 공장을 만들고, Naver는 클라우드 AI 역량을 강화하는 데 이 GPU를 사용할 것이라고 한다. 정부에도 일부 GPU를 공급해 국가 규모의 AI 컴퓨팅 센터나 AI 파운데이션 모델 개발을 지원할 계획이라고 한다.

하지만, 아직 답을 찾지 못한 중요한 하나가 있다. 왜 주나? 블랙웰 칩 하나 당 가격을 약 5만달러로 추정해보자. 26만개는 130억 달러 규모다. Nvidia 입장에서는 한국이 미래 AI 산업의 매우 중요한 파트너로 생각할 수 있다. 따라서 이는 단순 수요 확보를 넘는 전략적 투자로 볼 수 있다.

젠슨 황도 한국의 "산업 역량, 기술 역량"을 높이 평가한다고 하니까 말이다. 한국도 이 거래를 통해 "AI 허브 국가"로 자리매김하고자 하는 의지가 분명한 듯 보인다. Nvidia의 이번 블랙웰 칩 공급은 글로벌 경쟁에서의 전략적 파트너로써 한국을 선택했다는 긍정적 평가도 물론 가능하다.

GPU는 단순한 그래픽 처리용이 아니라 AI 연산용이기 때문에, 한국이 AI 경쟁에서 실질적인 연산 기반(기반 모델 트레이닝, 클라우드 AI)을 확보하게 된다는 점에서도 매우 고무적인 결과라 할 수 있다. 좀 더 미시적으로 내용을 들여다 보면, 먼저 메모리 산업과 반도체 생태계 강화라는 차원에서 블랙웰GPU는 고대역폭 메모리(HBM)를 쓰는 고성능 모델이기 때문에, 삼성전자와 SK하이닉스 같은 국내 기업이 Nvidia의 HBM 공급망의 중요한 파트너가 된다는 의미도 함축되어 있다.

즉, 한국 메모리 업체 또한 수혜를 보고, 반도체 생태계 전반에 긍정적 효과가 생길 수 있다. 두번째는 전 세계적으로 AI용 고성능 GPU 수요가 매우 높고 공급 부족이 자주 언급되는데, 그럼에도 불구하고, 한국 기업들은 GPU 확보에 대한 리스크를 줄일 수 있게 되었다. 공급 안정성 확보가 가능하다는 뜻이다. 이는 한국이 향후 AI의 주권적 역량을 키우는 데 있어 핵심 인프라를 안정적으로 마련했다는 의미가 된다.

좀 더 기술적인 내용들을 살펴보자. 젠슨황이 약속한 블랙웰(Blackwell) GPU들은 Nvidia Blackwell 아키텍처 기반이다. 블랙웰은 Nvidia의 최신 AI 연산용 GPU 라인으로, 단순 그래픽 처리보다는 딥러닝·AI 트레이닝 및 추론(inference)에 최적화된 모델이다. 알려진 바에 따르면, 사용처별 배분은 삼성이 AI "메가팩토리" 구축용으로, SK 그룹 역시 제조업용 AI 클라우드와 현실 세계의 물리적 객체, 시스템, 공정 또는 환경을 실시간 데이터와 센서 정보를 기반으로 디지털 공간에서 정확히 재현한 가상 모델, 또는, 쉽게 말해, 현실의 '쌍둥이'를 디지털로 만들어, 관찰·분석·시뮬레이션을 가능하게 하는 기술인 디지털 트윈(digital twin)에 각각 5만개를 사용할 예정이다.

현대자동차 역시 스마트 공장, 자율주행, 로봇 등 물리 AI 용도로 5만개를 사용하고, Naver가 클라우드 AI 역량 강화를 위해 6만개를, 그리고 정부가 AI 인프라·국가 AI 컴퓨팅 센터 용도로 5만개를 각각 사용할 예정이라고 한다. 요약하자면, 젠슨 황이 한국에 GPU 26만 개를 공급하겠다고 한 것은 단순한 제품 판매가 아니라, 한국의 AI 산업 전반을 (제조, 클라우드, 자동차, 정부 AI 인프라) 강화하려는 전략적 투자라 보는 것이 합리적인 듯하다.

그런데 이 멋진 '거래(Deal)'에 문제가 있다. 간과할 수 없는 허들이 있어 보이기 때문이다. 공간, 전력, 냉각, 인력 등의 수급 문제 등이다. 전력 문제만 얘기해보자. Blackwell GPU의 전력 소비는 모델과 용도 (워크스테이션 vs 데이터센터)에 따라 매우 다양하다. 예컨대 워크스테이션용으로 사용되는 RTX Pro 6000은 600W의 전력을 필요로하고, Max-Q 버전은 300W 수준의 전기가 필요하다.

데이터센터용 B200 모델은 1,000W 이상의 설계 전력을 가지며, 일부 보고서는 1,200W까지도 가능하다고 한다. 물론 낮은 정밀도 연산에서는 전력 효율이 매우 뛰어나다는 점을 감안한다면, 일단 연산 형식에 따라 소비 전력이 크게 달라질 수 있다. 고성능 GPU는 에너지 소비가 클 것이고, 운영비용이 상당할 수 있다.

Blackwell B200은 데이터센터 서버용 GPU로 프로세서가 정상 동작 상태에서 최대 발열량을 낼 때, 냉각 장치가 처리해야 하는 최대 전력량, 혹은 냉각 설계를 위해 참고해야 하는 최대 전력 소모치인 설계전력(TDP, Thermal Design Power)이 1kW~1.2kW로 매우 높다. 반면, 소프트웨어 수준 / 연산 포맷별 전력 최적화는 추론과정에서는 그다지 높은 전력 소비가 필요없다. 젠슨 황이 공급하기로 한 GPU는 최신 Blackwell AI용 모델로, AI 트레이닝 및 추론을 위한 고성능 연산을 지원하는 것으로 알려져 있다. 따라서 26만개의 GPU가 블랙웰200이고, 최대 전력 (1,000W)으로 가동된다고 가정할 경우, 총 전력 소모량은: 총 전력 소모량 = 260,000 x 1,000kW = 260,000,000W = 260,000 kW = 260 MW 즉, 최대 전력이 260 메가와트 (MW)가 되는 셈이다.

실제 공급모델에 따라 전력 사용량이 달라질 수 있지만, 여기에다 GPU 자체의 전력 외에도, 이 GPU들을 냉각하고 운영하는 데이터 센터 인프라(냉각, 네트워킹, 서버)의 전력이 추가되어야 한다면, 일반적으로 26만 개의 GPU를 운영하는 데 수 기가와트 (GW)의 전력과 냉각 인프라가 필요할 것으로 보인다. 일부 분석은 26만 개의 GPU를 운영하는 데 필요한 전력량이 중소 도시의 연간 전력 소비량 또는 원자력 발전소 1기가와트급 1기의 연간 생산량에 맞먹을 수 있다고 한다.

하지만, 만일 실제로 이 GPU들을 운영하는 대규모 AI 데이터센터를 가정할 경우, 냉각 및 기타 인프라까지 포함하여 260MW를 훨씬 초과하는 전력을 필요로 할 것이다. 그리고 그 전력 사용량은 대구시 전체 주택용 전력 소비 규모에 더욱 근접하거나 일부 소규모 도시의 총 전력 소비량(산업, 상업 포함)을 초과할 수도 있다.

그렇다면 원자력으로 갈 것인가? SMR을 개발할 것인가? 이 기술 모두 미국의 웨스팅 하우스와 뉴스케일 파워(NuScale Power) 등과 같은 기업들의 원천기술에 기반하고 있다. 방사성 핵 폐기물은 어떻게 처리할 것인가? 중앙정부와 지방정부의 역할 분담과 세입세출은? AI 주권 (AI Sovereignty)은? 기술 종속, 데이터 통제 및 가치와 윤리 문제 등에 대한 기준과 표준 설정은? 젠슨 황이 남기고 간 것은 이 모든 것들에 대한 '거래냐 아니냐(Deal or No Deal)'의 질문들 같다.

한국은 AI로 대체 무얼 할려는 것일까? 샘 알트먼은 인공지능이 암을 치료하길 원한다. 엘론 머스크는 AI 로봇이 빈곤을 없애줄 것이라고 말한다. 중국의 장기적인 AI 목표가 미국 기술 기업들 못지않게 야심차긴 하지만, 단기적 우선순위는 앞으로 수십 년 동안 세계의 공장이라는 역할을 지켜내겠다는 데 있다. 중국도 국내 비용 상승과 관세로 인해 세계 공장의 지위는 더 이상 보장되지 않는다고 본다.

이러한 변화는 중국 전역 수많은 기업에서 명확하게 드러난다. 수십억 달러 규모의 정부·민간 기술 개발에 힘입어, 상품 생산과 수출의 모든 과정이 AI를 중심으로 변화하고 있다고 한다. 우리는?

곽수종(리엔경제 연구소, 경제학 박사)