초대규모 AI 완전체? “반도체-데이터센터 통합해야”[DEVIEW 2023]

초대규모 AI엔 초대규모 인프라 필요
비용 절감 지상과제로…모델 경량화에 반도체 최적화 필요
데이터센터 각 세종, 각 춘천 대비 수전용량 7배↑
비전도 기능성 액체 등 서버 냉각 기술 더욱 강화

27일 곽용재 네이버클라우드 최고기술책임자(CTO)<사진>는 네이버가 주최한 개발자 콘퍼런스 ‘데뷰(DEVIEW) 2023’에서 “초대규모(하이퍼스케일) AI가 향후 더욱 고도화될 것임을 고려할 때, 소프트웨어-하드웨어-운영환경에 대한 통합적 접근이 필요하다”고 강조했다.

이날 네이버는 고객 목적에 맞춰 최적화할 수 있는 초대규모 범용 AI ‘하이퍼클로바X’를 소개했다. 네이버의 다양한 서비스와 연결해 데이터의 신뢰성과 최신성을 확보한 것이 특징이다. 네이버는 여기에 AI 반도체와 데이터센터를 더해 ‘초대규모 AI 완전체’를 목표한다고 밝혔다.

곽 CTO는 “하이퍼스케일 AI를 위해서는 하이퍼스케일 인프라가 필요하다. 인프라 비용이 지금 AI 업계에서는 가장 큰 고민거리”라고 전했다. 삼성전자와 AI 서비스 운영에 최적화한 반도체를 공동 개발하는 이유다.

곽 CTO에 따르면 초대규모 AI 핵심 모델은 ‘트랜스포머’다. 멀리 떨어진 데이터의 상관관계를 분석하는 수학적 모델이자 입력 데이터의 병렬 처리를 가능케 하는 모델이다. 성능이 좋은 만큼, 더 많은 메모리가 필요하다. 이러한 트랜스포머의 대부분 연산은 행렬곱셉으로, 전체 95% 이상 비중을 차지한다. 즉 행렬곱셉 연산량을 줄이면, 트랜스포머 경량화가 가능하다.

곽 CTO는 “행렬곱셉 사이즈가 크면 에너지를 많이 쓰고 응답 속도는 느려진다”며 “트랜스포머 모델 크기와 연산을 어떻게 경량화할지 고민하는 것이 가장 중요한 과제로 이러한 아이디어를 효과적으로 받아줄 최신 메모리 반도체 기술이 연결돼야 한다”고 부연했다.

네이버는 AI 반도체 솔루션에 자체 개발한 고유 기술을 적용한다는 설명이다. 트랜스포머 주 연산인 행렬곱셉을 경량화하는 동시에 추론의 정확성을 유지하면서도 모델 사이즈를 줄이는 기술을 개발, 실사용 환경에 맞춘 경량 모델을 만들었다. 곽 CTO는 “이러한 AI 반도체 솔루션은 10분의 1로 가벼워지면서 4배 이상 전력 효율을 내는 것이 가능해졌다”고 초대규모 AI를 위한 만반의 준비를 알렸다.

곧 오픈할 자체 데이터센터 ‘각 세종’이 이러한 초대규모 AI 모델을 가동하는 중심축이다. 곽 CTO는 “AI 서비스는 CPU보다 많은 전력을 소비하는 고성능 컴퓨팅”이라며 “전력을 많이 소비할수록 같은 공간에 수용 가능한 서버 수가 줄고 높은 발열량에 의해 서버 수명도 짧아지기 때문에, 데이터센터에 충분한 전력 공급량과 서버 냉각 기술이 필수”라고 밝혔다.

각 세종은 각 춘천 대비 수전 용량이 7배 가량 대폭 증가한 것이 특징이다. 여기에 외부 공기로 데이터센터 내부 열을 식히는 기술도 적용했다. 미세먼지 등을 감안해 간접 외기 냉방 기술도 추가 적용했다.

곽 CTO는 “수증기를 증발시켜 만든 차가운 물로 서버실 내부 공기를 식히는 간접 냉방으로 외기 도입이 불가능한 상황에서도 냉방 에너지 사용량을 감소시킬 수 있어 글로벌 톱 수준의 에너지 효율을 예상하고 있다”며 “앞으로 더 높은 성능의 AI 서비스가 늘 것을 대비해 공기로 열을 식히는 것이 아니라 전기가 통하지 않는 기능성 액체에 서버를 투입해 열을 식힐 것”이라고 전했다.

그는 “네이버는 AI 반도체 솔루션과 데이터센터 이 두 가지를 통해 하이퍼스케일 AI를 가장 효율적으로 제공할 수 있는 통합환경을 갖추게 된다”며 “소프트웨어부터 운영 환경까지 초대규모 AI 기술 완전체를 달성하기 위한 여정은 계속될 것”이라고 힘줘 말했다.

글. 바이라인네트워크
<이대호 기자>ldhdd@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다