[CES2017] 엔비디아, “게임·TV·자동차 GPU 시대”

전시회의 꽃은 역시 기조연설이다. CES의 기조 연설 역시 올 한해, 그리고 그 이후에 가장 영향력이 있을 것 같은 기술과 그 중심에 있는 회사가 비전을 설명하는 자리다. 1월4일 저녁 라스베이거스 베네시안 호텔에서 열린 기조 연설 무대에는 엔비디아의 젠슨 황 CEO가 올랐다.

젠슨 황 CEO는 무대에 오르자마자 4가지 기술에 초점을 맞췄다. 게임, 가상현실, 데이터센터, 그리고 자율 주행 차량이었다. 그리고 엔비디아는 홈 어플라이언스와 인공지능, 그리고 자율 주행 자동차 관련 기술들을 작정한 것처럼 쏟아냈다. 이 기술들 뒤에는 컴퓨팅, 즉 반도체 기술이 들어가 있기 때문에 가능한 일이다. 젠슨 황 CEO는 “최근의 변화의 중심에는 모두 GPU 컴퓨팅이 있다”고 말했다.

나중에 안 내용이지만 엔비디아는 무대 뒤 디스플레이까지 신경을 썼다. 이 디스플레이는 가로 3만 픽셀, 세로 1080 픽셀로 길다란 세 개의 화면으로 구성됐다. 초당 20억 개의 픽셀이 움직여야 했고 엔비디아는 이를 위해 쿼드로 그래픽카드를 10개 사용했다고 한다.

nvidia_1

결과를 먼저 이야기하자면 엔비디아의 기조 연설은 키노트 자체으로 성공적이었다. 기술의 비전을 명확히 제시했고, 손에 잡히는 제품을 쥐고 있었고, 각 기술을 멋지게 포장해 줄 생태계 파트너십도 맺어졌다. 개인적으로는 꽤 오랜만에 현장에서 보는 젠슨 황의 키노트였는데, 그 어느때보다 자신이 넘치고 힘이 있었다. 이날 엔비디아는 1990년대 후반 ‘리바’, 그리고 ‘지포스’를 갖고 게임 시장에 홀연히 나타났을 때의 엔비디아와는 전혀 다른 모습을 보여주었다. 머릿속을 맴도는 발표 내용을 하나씩 정리해 본다.

첫번째는 게임이었다. 게임은 엔비디아에게 가장 중요한 시장이다. 그리고 한 편으로 다른 여러가지 컴퓨팅 기반 기술들이 주목받는 가운데에서도 게임을 맨 앞에 두었다는 점이 반가운 일이다. 엔비디아는 먼저 게임 소셜 플랫폼을 발표했다. 지포스의 게임 화면을 페이스북 라이브를 통해서 곧장 중계할 수 있다. 엔비디아는 이미 유튜브와 트위치를 통해서 중계하는 시스템을 갖췄고, 페이스북 라이브로 그 영역을 확장하는 것이다. 그만큼 게임 시청이 게임 시장에서 중요한 역할을 차지하고 있다.

‘지포스 나우’라는 서비스를 발표했다. 지포스 나우는 클라우드 기반의 게이밍 서비스다. 고성능 컴퓨터를 갖고 있지 않아도 클라우드에서 모든 그래픽 연산을 처리하고 화면만 스트리밍으로 전송받는 서비스다. 젠슨 황 CEO는 “아직도 10억 대의 PC 이용자들이 게임을 즐길 수 있는 준비가 되지 않았다”고 말했다. 사실 근래 게임은 더 많은 컴퓨팅 파워를 요구하지만 그에 비해 시장은 그래픽카드 등 하드웨어 값에 부담을 느끼고 있다. 이를 클라우드로 처리해주면 아주 기본적인 컴퓨팅과 빠른 네트워크만으로 해결할 수 있다. 기존에 ‘실드’를 이용해서 비슷하게 서비스를 운영했던 바 있는데 이를 PC와 맥 등 주류 게이밍 플랫폼으로 확장한 것이다.

nvidia_3

엔비디아는 이를 위해 별도의 데이터센터를 마련해 모든 PC에서 파스칼, 그러니까 게이머들이라면 누구나 원하는 지포스 GTX 1080같은 고성능 그래픽카드 성능을 이용할 수 있게 된다. 또한 이런 클라우드 서비스의 어려움 중 하나였던 ‘클라우드 컴퓨팅’의 제한을 없앴다. 엔비디아는 스팀, 오리진 등 온라인 게임 플랫폼과 파트너십을 맺어 각 게임 클라이언트에 지포스 나우 기술을 통합한다. 그러니까 이 서비스를 신청하고 그냥 기존에 쓰던 것처럼 스팀을 이용해 게임을 즐기면 알아서 클라우드로 게임을 작동시키는 것이다.

이를 이용하면 그래픽카드가 없는 울트라씬 노트북에서도 게임을 즐길 수 있고, 맥OS에서도 윈도우용 게임이 돌아간다. 게이머들에게도 유리하지만 주류 게임 시장의 하드웨어를 염두에 두어야 하기 때문에 게임의 그래픽을 낮추어 개발해야 했던 게임 업계에도 돌파구가 될 것으로 보인다. 요금은 20시간에 25달러다.

엔비디아의 두 번째 이야기는 TV다. 요즘 유행하는 재 발명(reinvent)라는 말까지 꺼냈다. 이 중심에는 실드(shield)가 있다. 이는 안드로이드를 이용한 TV 콘솔, 혹은 셋톱박스로 볼 수 있다. 일단 4k 해상도에 색을 풍부하게 하는 HDR 출력까지 가능하다. 기본적으로 안드로이드를 이용한 넷플릭스, 아마존, 유튜브, 구글 플레이, 스팀, 그리고 엔비디아의 게임 플랫폼들을 이용할 수 있다.

nvidia_4

그리고 엔비디아는 여기에 구글 어시스턴트를 붙였다. 음성 기반의 기기 제어 서비스다. ‘구글 홈’을 통해서 익숙하게 알려진 서비스인데 엔비디아는 이를 TV에 활용한다. 당연히 구글 어시스턴트를 이용해 콘텐츠를 골라서 볼 수도 있다.

또한 엔비디아는 전원 콘센트에 직접 꽂는 마이크도 소개했다. ‘스팟’이라는 이름의 자그마한 기기다. 이 스팟을 집안 곳곳에 설치해 두면 음성만으로 실드의 구글 홈을 어디서나 이용할 수 있다. 실드나 구글 홈을 여러대 설치하는 것보다 간편하고 저렴하다. 어디에나 구글 어시스턴트를 두겠다는 구글의 의도를 잘 파악한 제품이다. CES 현장에서 가장 많이 눈에 띄는 것 중 하나가 구글 어시스턴트와 아마존 알렉사 기반의 음성 인식 기기들이다. 음성 인식은 특히 머신러닝의 도입을 통해 빠르게 성장하고 있다. 엔비디아 역시 ‘말 귀를 알아듣는’ 기기들을 기반으로 한 서비스들이 확실히 자리를 잡아가고 있는 것을 보여주고 있다. 새 실드는 이달 말 199달러에 출시된다.

nvidia_5

세 번째 이야기는 자동차다. 엔비디아의 GPU 컴퓨팅이 가장 주목받는 분야가 바로 자동차다. 젠슨 황 CEO 역시 안전을 최 우선으로 언급했다.

“모든 자동차들은 사람이 움직이지만 이 때문에 사고와 사회적 비용이 발생한다. 사람과 차가 떨어지지 못하니 사람이 가는 곳은 모두 차로 뒤덮인다. 우리 세상을 다시 짚어볼 필요가 있다. 자동차가 스스로 움직인다면 녹지, 잔디, 숲이 돌아온다. 그렇게 자동차는 개인용 로봇이 될 것이다.”

자율 주행 차량에 대한 수식은 여러가지 들어 봤지만 ‘개인용 로봇’이라는 말은 흔치 않다. 결국 스스로 판단하고 움직이는 기기가 될 것이라는 설명인 셈이다. 스스로 움직이기 위해서는 GPU를 이용해 운전을 배우는 딥러닝 기술이 필요하고, 고화질 지도와 센서, 인공지능 기술이 종합적인 역할을 해야 한다는 이야기는 엔비디아를 통해서도 반복됐다.

nvidia_6

문제는 이를 어떻게 구현할지에 대한 것이다. 엔비디아는 자체적으로, 또 여러 자동차 파트너와 함께 스스로 주행하는 차량을 개발중이다. BB8이라는 이름의 링컨 차량은 실제로 스스로 도로를 움직이고, 이번 CES를 위해 미리 라스 베이거스 시내를 스스로 돌아다니면서 길을 익히고 있다. 딥러닝을 하고 있다는 이야기다.

하지만 완전 자율 주행까지는 가야 할 길이 멀다. 엔비디아는 당장 주행 보조 장치를 위한 기기부터 소비자 시장에 접근할 계획을 밝혔다. ‘AI 코파일럿(AI Co-Pilot)’이라고 소개했다. 말 그대로 운전 보조라는 이야기다.

이 기기의 역할은 한 마디로 ‘또 하나의 눈’이다. 기본적으로 영상을 분석하는 컴퓨터 비전 기술을 활용한다. 크게 두 가지 카메라를 이용해 차량 바깥과 안을 실시간으로 살핀다. 내부의 카메라는 얼굴을 인식해 운전자가 누구인지 체크한다. 이를 통해 차 설정을 개인화할 수도 있고, 도난 등의 안전 문제도 풀 수 있다. 또한 머리의 움직임과 시선을 인식해 준다. 이 기능을 이용해 운전자가 한눈을 팔지 않는지, 놓치는 부분이 있는지, 혹은 졸음 운전을 하는지 파악하는 서비스를 만들 수 있다. 또 하나의 기능은 입술을 읽는 것이다. 자동차라는 공간은 많은 소리가 섞여서 들리게 마련이다. 라디오는 음성 인식에 방해가 되는데, 목소리와 함께 입술을 읽어 주변 소음에 관계 없이 말을 알아듣는 것이다.

마찬가지로 차량 밖의 카메라는 주변 상황을 쉴새 없이 체크한다. 엔비디아는 갑자기 나타난 오토바이의 움직임을 읽어 안전하게 운전하라고 경고를 해 주는 데모를 보여주었다. “오토바이가 중앙선 쪽으로 달려오고 있으니 주의하라”고 경고하는데, 정말 옆에서 보조 운전자가 있는 것과 다르지 않다.

nvidia_7

엔비디아는 이 기술을 혼자 모두 완성할 계획으로 보이진 않는다. 이 제품을 특정 자동차에만 집어 넣지도 않는다. 얼굴을 인식하고, 운전자가 어디를 바라보는지 확인하고, 입술을 읽는다고만 말했지만 이 솔루션 자체가 센서 역할을 하기 때문에 앞에서 이야기한 것처럼 자동차 제조사가 운전자 개인화나 안전 관련 서비스를 붙이면 된다.

기기는 손바닥보다 조금 큰 하나의 컴퓨터다. 64비트 ARM 코어 8개를 넣었고, GPU는 코어를 512개 품은 볼타 프로세서로 이뤄졌다. 이를 통해 30테라 오퍼레이션의 슈퍼컴퓨팅 성능을 제공하면서도 30W의 전력으로 작동한다. 자동차 안에 작은 슈퍼컴퓨터가 들어가는 셈이다.

엔비디아는 장기적으로 차량 내부의 컴퓨터 뿐 아니라 클라우드를 통해 실시간으로 비디오를 분석하는 것까지 염두에 두고 있다. 앞서 이야기한 ‘지포스 나우’도 어떻게 보면 자율 주행 기술을 확대하는 하나의 길이기도 하다.

엔비디아의 코 파일럿 솔루션은 지금 당장 차량 제조사들에게 전달되고 있다. 이미 아우디는 관련 차량을 만들고 있다. 또한 엔비디아는 ZF, 보쉬같은 자동차 부품, 전장을 만드는 1티어 제조사들과 파트너십을 맺었고, 중국 시장에 고해상도 지도를 얻기 위해 바이두와 손을 잡기도 했다. 전체적으로 엔비디아의 자율주행 플랫폼은 방향성을 확실히 잡았고, 적절한 파트너십을 통해 하나씩 현실화해가고 있다는 인상을 준다.

젠슨 황의 키노트는 쏟아낸 엔비디아의 기술들로도 흥미로웠지만 아직도 대중적으로 익숙치 않은 GPU 컴퓨팅의 역할을 구체화했다는 점이 강한 인상을 남겼다. 그저 게임을 위한 그래픽 가속기로 시작한 GPU지만 반도체 기술이 발전하고, 컴퓨팅이 필요한 분야가 넓어지기도 했지만 이 기술이 뚜렷이 어떤 곳에 쓰이는지 알려질 필요도 있다. 제품 이야기가 이어졌지만 결국 머릿속에 남은 것은 반도체 기술, 그리고 GPU 컴퓨팅의 방향성이었다.

글. 바이라인네트워크
<최호섭> hs.choi@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다