본문 바로가기
AI

대용량 데이터센터, 고성능 AI반도체 경쟁 ‘치열’

by 중소기업투데이 2023. 9. 3.

디지털트윈 가속화할수록 더욱 중요
국내외 기업들 R&D 대규모 투자
막강 컴퓨팅 역량 구비, 엔비디아·네이버·카카오·테슬라 등 경쟁

삼성의 데이터센터 모습. 본문과 직접 관련은 없음

 

[중소기업투데이 조민혁 기자] AI반도체를 활용한 데이터센터 구축이 미래 산업의 경쟁력을 좌우할 관건으로 떠오르고 있다. 특히 전 산업에 걸쳐 디지털트윈과 스마트화가 확산되면서, 그 기반이 되는 고성능 AI반도체(칩)와 이를 기반으로 한 데이터센터의 역할이 날로 강조되고 있다.

최근엔 테슬라의 일론 머스크가 초대형 슈퍼 컴퓨터를 활용한 대규모 데이터센터를 자체적으로 구축할 것으로 알려져 더욱 그 중요성이 부각되고 있다.

데이터센터를 고도화하기 위해선 데이터 저장·연산을 아우르며, 기존 반도체의 한계를 뛰어넘는 고성능·저전력 AI반도체 적용이 핵심이다. 기존의 과도한 에너지 비용이나, 대용량의 스토리지와 연산 부하 등을 해결하는 것이 중요하다.

한국데이터산업협회와 ‘테크크런치’, ‘일렉트릭’ 등 유력한 기술매체 등을 종합하면, 엔비디아, 네이버, 카카오, SK텔레콤 등 국내외 글로벌기업들은 이런 문제들을 해결하기 위해 초고속·저전력 AI반도체를 활용한 데이터센터 구축 경쟁을 가속화하고 있다.

최근의 데이터센터는 빅데이터를 수집·저장·분석할 수 있는 클라우드 컴퓨팅 서비스를 기반으로 하고 있다. 글로벌 기업들은 이를 통해 AI 모델을 훈련·개발하고, 안정적인 인프라 확보를 위한 데이터센터 투자를 늘려가고 있다.

특히 최근 국내외적으로 크게 관심을 끈 것은 역시 국제적인 ‘뉴스메이커’로 정평이 난 일론 머스크의 호언장담이다.

그에 따르면 테슬라는 곧 미국 캘리포니아주 새크라멘토에서 자체 데이터센터를 운영할 계획이다. “남의 데이터센터를 빌려쓰는 일은 더 이상 끝낼 것”이란 머스크 특유의 자존심이 발동한 것으로도 해석된다. 특히 자체적으로 이미 자율주행용 초고성능 AI반도체 ‘DI칩’까지 개발한 바 있어, 이같은 호언은 실현 가능성이 매우 높아보인다.

실제로 최근엔 데이터센터에서 근무할 ‘선임 엔지니어링 프로그래밍 매니저’를 채용하는 공고까지 낸 것으로 전해진다.

머스크가 구상하는 데이터센터의 구체적인 아키텍처는 아직 외신이나 전문가들에게도 알려진 바가 없다. 그러나 “새크라멘토의 기온이 데이터센터를 운영하기에는 너무 높다”고 머스크가 비판한 적이 있다는게 하나의 힌트가 되고 있다.

즉, 공냉식이 주력인 대부분의 데이터센터들과는 달리, 완전한 수냉식 데이터센터로 건설함으로써 에너지 절감과 냉방 효율성을 높일 것이란 전망이다.

특히 관심을 끄는 것은 테슬라가 설계한 도조(Dojo) 슈퍼컴퓨터다. 향후 테슬라의 데이터센터는 이를 주축으로 여느 데이터센터들에 비해 단위 면적당 최대치의 컴퓨팅 능력을 갖출 것으로 예측된다.

알려지기론, 테슬라가 개발한 슈퍼컴퓨터 도조에서 대용량 정보 처리를 담당할 전용 반도체 칩 ‘D1’은 무려 50만 개의 노드를 동시에 처리하며 초당 36TB의 속도로 데이터를 처리할 수 있다. 이러한 D1칩 3000개를 조합해 1초당 100경(‘1경’은 10×1000조)번의 연산이 가능한 1.1엑사플롭스(exa FLOP)급 성능을 제공한다는 얘기다. 또한 고성능 유지를 위해 개별 프로세서에 직접 전기를 공급하는 통합 구조까지 갖춤으로써 전대미문의 대용량 고효율 데이터센터를 선보인다는게 머스크의 야심적인 계획이다.

최근 독자적인 AI칩으로 주가가 폭등하며, ‘엔비디아 신화’를 만들고 있는 앤비디아도 만만찮다. 특히 독보적인 AI 반도체침 ‘GH200 그레이스 호퍼 슈퍼칩’을 지난 8일 공개하면서 막강한 데이터센터 소프트웨어를 과시하고 있다.

GH200은 생성형 AI 등 고성능컴퓨팅이 필요한 영역에 최적화된 AI반도체다. 고성능컴퓨팅 체제의 대용량 데이터센터에 안성맞춤인 셈이다. 특히 엔비디아의 GPU와 Arm 기반의 72코어 CPU, 차세대 메모리반도체인 HBM(고대역폭메모리) 등을 결합한 독보적 구조로 알려져있다.

이는 지금까지의 최고급 AI 칩인 H100과 동일한 그래픽처리장치(GPU)를 탑재하고 있다. 하지만, GH200은 기존 GPU에 141기가바이트의 최첨단 메모리와, 72코어 ARM 중앙 프로세서(CPU)를 결합해 성능을 향상한 점이 특징이다.

특히, 초당 5테라바이트(TB)의 속도로 정보에 접근할 수 있는 고대역폭 메모리 HBM3e가 탑재돼 있다. 그래서 “데이터센터에 GH200를 탑재해 소비 전력을 기존 대비 20배 이상 줄여줄 수 있는 만큼, 대규모 언어모델을 추론하는 데 드는 비용이 크게 감소할 것”이란게 현지 전문가들의 예상이다.

국내 기업들도 이런 국제적 추세에 부응하기 위해 분발하고 있다.

최근 네이버클라우드는 대규모 국산 AI반도체 기반 데이터센터를 구축하고, 아시아와 북미 등에 보유하고 있는 자체 클라우드 데이터센터에도 국산 AI반도체를 점진적으로 확산하기로 했다.

특히 AI 반도체 분야에서 삼성전자의 반도체 선도 기술력과, 네이버의 초거대 AI(하이퍼클로바X) 등 노하우를 융합했다. 이를 바탕으로 새로운 AI 반도체 솔루션를 개발하고 있는 것으로 알려지고 있다.

현재 네이버클라우드는 비수도권 최대 데이터센터인 ‘각 춘천’을 안정적으로 운영하고 있으며, 이를 바탕으로 올해 3분기에 ‘각 세종’ 데이터센터도 가동할 것으로 전해졌다.

카카오도 최초의 자체 데이터센터를 안산 한양대 에리카 캠퍼스에 건설하고 있다. 오는 9월에 일단 완공한 후 시범 운영을 거쳐 2024년에 정식으로 문을 열 계획이다. 이어서 내년 1월에는 서울대학교 시흥캠퍼스에 두 번째 자체 데이터센터를 착공할 예정이다.

SK텔레콤은 진작에 지난 2020년 11월 AI 반도체 ‘사피온 X220’을 공개하며 국내외 관심을 끈 바 있다.

당시 이를 계기로 올해에는 사피온 X330을 개발, 선보였고 2024년에는 사피온 X340, 사피온 X350 등 후속 버전을 출시할 예정이다. 또한 데이터센터 서비스 고도화를 위해 최근 슈퍼컴퓨터의 GPU를 두 배로 증설하기도 했다. 이 회사는 첨단 AI를 기반으로 데이터센터, 클라우드 사업의 운영 효율화를 통해 수익 증대를 꾀하고 있다.

KT는 AI 반도체 스타트업 리벨리온(Rebellions)에 300억 원을 투자했다. KT측은 그 결과 “본사 데이터센터에 자체 개발한 AI 반도체를 선제 적용하는 등 ‘AI 반도체 풀스택 확보’ 전략을 추진하고 있다”고 밝혔다.

한편 가트너에 따르면 전세계 AI 반도체 시장규모는 2023년 534억 달러, 2024년 671억 달러, 2027년에는 1194억 달러에 달할 것으로 전망된다. 특히 “생성AI 개발과 데이터센터, 에지 인프라, 엔드포인트 장치에서 광범위한 AI 기반 애플리케이션의 사용이 증가함에 따라 고성능 그래픽처리장치(GPU), 최적화된 반도체 장치 필요성이 증가하고 있다”는 분석이다.

 

 

출처 : 중소기업투데이 http://www.sbiztoday.kr/