[엔비디아 탐구] ① 엔비디아가 AI 짱 먹게 된 결정적 순간, 넷

지난 14일(현지시각), 엔비디아가 반도체 기업 중에서는 처음으로 시가총액 1조달러 클럽에 이름을 올렸다. 엔비디아의 가치를 이렇게 끌어올린 배경에는 최근의 인공지능(AI) 열풍이 있다. 인공지능 개발에 쓰는 GPU의 시장을 엔비디아가 90% 라는 압도적  숫자로 점유하고 있어서다. 지금으로서는 일단, 엔비디아가 GPU(그래픽처리장치)를 팔지 않으면 인공지능 개발을 하기 어려운 상황까지 왔다.

원래 GPU는 대용량 그래픽을 빨리 처리하기 위해 만들어진 칩이다. 엔비디아라는 스타트업이 인텔이라는 CPU 거인에 맞서 생존하기 위해 틈새시장 전략으로 만들어낸 칩의 한 종류로 시작했다.

그러나 엔비디아는 GPU를 그래픽 처리 장치에 머물게 두지 않았다. 복잡한 숫자의 빠른 연산이 필요한 곳에 GPU가 쓰일 수 있도록, 사업이 확장할 수 있는 구간마다 이를 정확하게 짚어 칩의 역할에 날개를 달아줬다. 엔비디아는 스스로를 더 이상 GPU 회사라 부르지 않는다. 이제는 ‘가속 컴퓨팅 회사’라고 자신을 정의한다.

엔비디아는 어떻게 가장 각광받는 회사가 됐을까. 가속 컴퓨팅을 위한 핵심 회사가 되기 위해서 어떤 판단을 했고 노력을 했을까. 엔비디아가 GPU로 AI 시대를 짱 먹게 된 네 가지 결정적 장면을 짚어본다. 이 기사 작성에는 엔비디아코리아 김선욱 기술 마케팅 총괄상무와의 인터뷰가 큰 도움이 됐다.

첫번째 장면, 그래픽 칩의 선택지를 넓힌 ‘쿠다’
– 생태계 확장을 위한 꾸준한 투자, 밭에 씨뿌리기

쿠다(Compute Unified Device Architecture, CUDA)는 엔비디아 GPU 칩을 위한 총체적인 개발도구다. GPU를 위한 프로그래밍 언어도 되고, API의 집합이기도 하며, 플랫폼의 역할도 한다. 엔비디아는 쿠다를 널리 퍼트려 자신들의 우군이 될 개발자를 많이 생성하려 했다. 생태계가 만들어져야 엔비디아 GPU가 생명력을 가질 수 있을 것이기 때문이었다.

그래서 엔비디이가 선택한 길은 두 가지다. 하나는 더 많은 개발자가 쿠다를 쓰도록 장려했고, 또 다른 하나는 — 이게 나중에 보면 핵심적 선택이 되는데 — 개발자들이 GPU를 가져다가 그래픽 처리가 아닌 다른 용도로도 프로그래밍 할 수 있도록 문을 열었다. 본래 용도는 아니지만, 이걸 가져다가 잘 쓸 수 있는 곳이라면 어디든 접목할 수 있도록 적극 협력에 나선 것이다.

이때 엔비디아가 새로운 영역에서의 가능성을 확인한 일이 잇달아 일어났다. 개발자들이 GPU를 가져다가 과학연구 등 연산이 많은 곳에 쓰기 시작한 것이다. 예컨대 2012년 3월에 일본 츠쿠바 대학교에서 천체물리학, 생물물리학, 소립자물리학 등에 사용할 슈퍼컴퓨터 HA-PACS에 엔비디아 테슬라(Tesla) GPU를 탑재했다.

천문학 연구는 정말로 천문학적 연산 자원이 필요하다. 한번에 하나의 계산만 하는, 그래서 이 계산이 끝나야 다음 계산 작업을 할 수 있는 CPU를 가져다 쓰면 연산 속도가 매우 느리다. 츠쿠바 대학의 연구진은 동시에 여러 계산을 수행할 수 있는 GPU를 통해 CPU의 단점을 해결하려 했다.

같은 해 6월에는 독일 율리히 연구소의 율리히 슈퍼컴퓨팅센터에서 테슬라 GPU를 활용, 신경과학과 천문학 등을 위한 GPU 가속 과학 연구 진행에 협업하기로 했다고 밝혔다. 모두 기존의 컴퓨팅 자원으로는 다가가기 어려운 복잡한 연산이 담보된 영역이다.

엔비디아는 이런 현상을 고무적으로 봤고, 이후에는 수학 계산과 관련한 라이브러리를 직접 만들어 연구진들이 가져다 쓸 수 있도록 공급했다. 천문학 연구를 한 개발자들처럼 직접 하드웨어 프로그래밍을 하는 이들도 있겠지만, 고속 연산이 필요한 다른 영역의 모든 개발자들이 모두 같은 상황에 있는 것은 아니라서다.

개발자가 직접 하드웨어 프로그래밍을 하지 않아도 되니 GPU에 대한 접근성이 훨씬 좋아졌다. 음식으로 치면, 주방에서 직접 레시피를 개발하고 재료를 손보지 않아도 맛을 낼 수 있도록 공장에서 밀키트가 나온 것과 비슷하다.

두번 장면, ‘딥러닝’의 가능성을 연 ‘알렉스넷’의 등장
– 좋은 레퍼런스의 등장, 물 들어올 때 노 젓기

같은 해인 2012년, 이미지 인식 분야에서 딥러닝 모델이 인간의 프로그래밍 능력을 넘어선 첫 사례가 나온다. 그리고 여기에도 GPU가 쓰였다. 알렉스넷의 등장이다.

매해 이미지 분류 알고리즘의 성능을 평가하는 ‘IRSVRC(ImageNet Large Scale Visual Recognition Challenge)’라는 경진대회가 있다. 대용량 이미지셋을 제공하는 이미지넷에서 주최하는 대회다. 2012년까지만 해도 딥러닝은 그간 인간의 프로그래밍 수준과 크게 다를 바 없는, 그러니까 뛰어난 성능을 보이진 못하는 수준에 머물러왔다. 딥러닝의 가능성에 대해 개발자들은 반신반의 하던 때였다.

그런 상황에 파란을 몰고 온 것이 알렉스넷이다. 캐나다 토론토대학 제프리 힌튼 교수 팀에서 박사과정을 밟던 알렉스 크리체프스키가 인간의 두뇌를 본 딴 합성곱신경망(CNN)으로 만든 인공지능 ‘알렉스넷’을 들고 대회에 참여했다. 그 결과는? 다른 참가자들과 인식 오류율에서 10% 차이를 내는 압도적  성적으로 1등을 했다.

당시 알렉스 크리체프스키는 인공지능이 1차함수 ‘ax+b=y’의 상수 값을 빠르게 바꿔 가면서 계산하는 방식으로 결과값을 찾을 수 있도록 쿠다 프로그래밍을 했다. 기계가 계산할 수 있도록 구조만 짜 놓아도 사람이 직접 프로그래밍한 것보다 정확도가 높을 수 있다는 것이 검증된 것이다.

이 결과는 인공지능을 연구하는 이들을 자극시켰다. 그로부터 3년 후인 2015년에는 마이크로소프트의 인공지능이 이미지넷 챌린지에서 인식 오류율을 3.57%까지 줄여버렸다. 이런 연구가 구글, 바이두 등 세계 인공지능 연구를 이끌어가는 기업들에서 동시다발로 이뤄졌다. 그리고 대중을 인공지능의 충격에 빠트린 알파고가 2016년에 등장했다.

엔비디아는? 물 들어올 때 노 저었다. 알렉스넷의 성공에 GPU의 계산 속도가 바탕이 됐다는 것은 누구도 부인할 수 없는 사실이다. 개발자들이 GPU의 효능을 이제 막 체험하기 시작했으니, 누구나 쉽게 엔비디아 GPU와 쿠다를 쓸 수 있도록 더 빨리 생태계를 확장하려고 했다. 인공지능 연구자들이 직접 쿠다 프로그래밍을 할 필요 없이, 쿠다 라이브러리에서 연구 목적에 필요한 것만 골라다가 쓰도록 하면 더 빠르게 GPU가 확산 될 거라고 봤다.

내부적으로는 쿠다를 활용할 줄 아는 개발자를 가능한 많이 채용하는데 힘을 썼다. 그리고 이들은 다양한 인공지능 연구에 필요한 각종 라이브러리와 GPU 가속 솔루션을 만들어내는 데 투입됐다. 쿠다 생태계가 확장될수록 엔비디아 GPU는 더 잘 팔리고, 엔비디아 GPU가 많이 공급될수록 쿠다 라이브러리를 찾는 연구진이 늘어나는 선순환이 발생한 것이다. “인공지능 연구 = 엔비디아 GPU”라는 생태계가 이렇게 탄생했다.

세번째 장면, 컴퓨터 간 데이터 전송 속도를 높여라 ‘멜라녹스’ 인수
– 현실에 안주하지 않고 시장의 페인 포인트 찾기, 새로운 농업기술 도입

2019년 3월. 엔비디아가 네트워크 회사 ‘멜라녹스’를 70억달러(당시 환율 기준 약 8조5000억원 규모)에 인수했다. 인텔과 마이크로소프트도 인수를 위해 물밑에서 경쟁하게 한 곳이다.

같은 해 9월에 애플이 인텔의 무선사업부를 10억달러에 인수했다는 걸 감안하면 엔비디아의 멜라녹스 인수는 당시 최고의 빅딜이라 불러도 무방하다. 멜라녹스가 뭔데 이렇게 비싸게 샀느냐고 묻는다면, 컴퓨터 간 고속 커뮤니케이션의 길을 열어줄 하이패스 쯤으로 설명할 수 있지 않을까.

엔비디이가 멜라녹스를 인수한 이유는 ‘인피니 밴드’ 기술 때문이다. 엔비디아의 병렬 컴퓨팅이 칩의 데이터 계산 속도는 끌어 올렸다. 그러나 계산의 규모가 커지면서 컴퓨터 하나로 계산할 수 없어서 컴퓨터와 컴퓨터가 연결된 엄청나게 큰 두뇌가 필요해졌다. 컴퓨터 간 데이터 전송도 중요한 이슈로 떠오른 것이다.

그런데 기존의 이더넷은 컴퓨터와 컴퓨터 간 데이터 전송에 병목현상을 일으켰고, 또 그 과정에서 데이터가 일부 손실되는 경우도 생겼다.

엔비디아가 멜라녹스를 인수할 즈음에 했던 고민이 바로, 전체 컴퓨팅 과정에서 병목 현상을 찾아 제거해야겠다는 것이며 당시 가장 크게 우려된 병목 구간이 바로 컴퓨터 간 네트워크의 속도였다.

이 병목 현상과 데이터 손실을 줄이는 기술로 각광받은 것이 인피니밴드 기술이고, 이 기술을 확보한 회사가 멜라녹스였다. 엔비디아는 자신들이 데이터의 고속 커뮤니케이션을 위해 개발한 여러 기능에 멜라녹스의 기술을 녹이고 있다.

대표적 사례가 가속 시스템에서 GPU와 CPU 프로세서를 고속 연결시키는 NV링크나, 다중 노드 트레이닝을 위한 GPU간 통신을 뜻하는 니클(NCCL) 같은 것이 있다. 멜라녹스가 가진 기술 중에는 마치 우체국 중앙집중국처럼 각 지역(GPU)에 업무를 할당하는 알고리즘도 있다. 이를 니클과 같은 시스템에 적용할 경우 적은 양의 데이터를(소실 가능성이 줄어들기 때문에 적게 보내도 된다) 목적지에 정확히 전달할 수 있게 된다. 

네번째 장면, 젠슨 황 “인공지능은 모든 제조업으로 확장될 것”
– 하드웨어 회사에서 클라우드 회사로 업종 확장, 대농으로 경작지 확장

지금의 엔비디아를 만든 일등공신은 창업자이자 최고경영자(CEO)인 젠슨 황이다. 개발자 구성원 모두의 노력도 물론이지만, 그가 모바일을 포기하고 인공지능이라는 하나의 길을 뚝심있게 밀어붙인 리더십은 평가받을 만하다. 엔비디아 내부에서는 지금도 젠슨 황이 구성원 하나하나의 의견을 듣고, 이에 일일이 답을 보내는 열정을 보이고 있다고 말한다.

그런 그가 최근에 내는 메시지는 “엔비디아는 가속 컴퓨팅 회사”라는 것이다. 칩을 앞세우기 보다는 솔루션을 먼저 강조한다. 엔비디아의 다음 스텝이 (물론 더 좋은 칩을 내는 것은 기본이겠지만) 인공지능 솔루션을 공급하는데 있다는 것을 알게 하는 부분이다. 예컨대 이런 분야다.

생성AI 기술을 도입하고 싶은 A라는 중소기업은 모두 슈퍼컴퓨터를 구축해야 할까? 엄청나게 비싼 칩과, 이 칩을 구동하게 하는 여러 솔루션을 모두 돈주고 사야 생성AI 기술을 쓸 수 있을까? 한 번 기술을 개발하고 난 후에는 계속해 같은 솔루션을 쓸 회사라면, 차라리 이 슈퍼 컴퓨터를 일정 기간만 임대해 쓰는 게 낫지 않을까?

젠슨 황 CEO는 올해 대만에서 열린 컴퓨텍스에서 “모든 제조업으로 인공지능이 확장될 것”이라고 말했다. 바로 이 부분을 정확하게 파고든 것이다. 엔비디아가 공격을 받는 포인트 중 하나는 ‘비싼 칩의 가격’이다. 그러나 엔비디아는 기업이 인공지능 솔루션을 구축할 때 중요한 것은 칩의 가격이 아니라고 본다. 칩 외에도 돈이 들어갈 구석은 많다.

엔비디아가 인공지능을 위한 슈퍼컴퓨팅 자원을 클라우드로 공급하기로 결정한 이유다. 거대한 테크 기업만 인공지능을 활용하는 시대는 끝났다. 모두가 최고 성능을 내기 위한 인공지능 솔루션을 도입하려 한다. 이 시장에서 엔비디아는 또 한번의 기회를 보고 있다. SaaS 회사로서, 엔비디아는 또 한번의 도약 기회를 내다보고 있다. 다음 번에는 엔비디아가 만들어내고 있는 칩과 기술의 흐름에 대해 살펴본다.

글. 바이라인네트워크
<남혜현 기자> smilla@byline.network

[무료 웨비나] API연결만으로 가능한 빠르고 쉬운 웹3 서비스 구축

  • 내용 : API 연결을 통해 웹2와 웹3를 끊김 없이 연결하는 최신 융합 기술과 이를 통한 적용 사례를 다룹니다.
  • 일시 : 2024년 10월 10일 (목) 14:00 ~ 15:10

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다