구글I/O 2017, ‘모바일에서 AI로’

구글이 앞으로 1년의 비전과 기술을 제시하는 개발자 컨퍼런스 ‘구글I/O 2017’을 열었다. 지난해와 마찬가지로 마운틴 뷰 구글 본사 옆 쇼라인 앰피시어터에서 열렸다. 키노트는 야외 공연장에서 열렸고 7천 명 이상의 개발자와 파트너들이 모였다.

두 시간 동안 이어진 키노트는 너무나 당연하게도 인공지능에 있었다. 그야말로 ‘머신러닝 잔치’라고 해도 과언이 아니었고, 소개된 내용들도 대부분 완전히 새로운 서비스라기보다 기존 서비스에 머신러닝이 접목되면서 이전과 완전히 다른 경험을 만들어내는 내용이 주를 이뤘다.

google_io_1

이번 구글의 키노트가 독특했던 것은 특정 제품에 대해 집중적으로 설명하기보다 머신러닝에 대한 이야기를 이어가다가 제품을 하나씩 툭툭 꺼내 놓았다. 대표적인 것이 ‘구글렌즈(Google Lens)’다. 순다 피차이 CEO는 새롭지만 전혀 아무렇지 않게 구글 렌즈를 이야기했다.

구글렌즈는 컴퓨터 비전 기술로, 사물에 카메라를 비추면 내용을 분석해 관련 정보를 주는 서비스다. 예를 들어 길을 가다가 건물을 비추면 구글 어시스턴트가 실시간으로 건물의 이름과 정보를 알려주고, 공연 포스터를 비추면 공연에 대한 정보와 예매 관련 봇, 그리고 캘린더에 공연 일정을 기록할 수 있게 해 준다. 구글 어시스턴트와 접목되다 보니 안드로이드의 경우 앱 뿐만 아니라 하드웨어를 제어할 수도 있다. 예를 들어 무선 공유기의 SSID와 암호에 카메라를 대기만 하면 이를 인지해 해당 무선랜에 자동으로 접속한다.

google_io_2

구글렌즈는 머신러닝을 이용해 사물을 인지하는 컴퓨터 비전 기술에 기반한다. 사물이 어떤 것인지를 읽을 수 있게 되면 그 뒤는 구글이 갖고 있는 방대한 검색 데이터와 콘텐츠, 서비스, 그리고 안드로이드를 적절히 붙이면 된다. 우리가 구글 검색창에 어떤 단어를 검색하면 그와 관련된 정보를 요약해주는 ‘지식 그래프’의 영상 버전이라고 보면 된다.

지난해 구글I/O에서 처음 소개됐던 구글 어시스턴트는 더 진화됐고 더 많은 서비스에 접목되기 시작했다. 구글 어시스턴트는 기본적으로 문맥을 이해할 수 있는 자연어 분석 기술을 기반으로 한다. 말을 알아들을 수 있게 되면서 여러 서비스와 ‘대화’를 나눌 수 있게 된다고 해석하면 된다. 구글렌즈 역시 이미지 분석과 문맥을 이해하는 머신러닝 기술이 접목된 것으로 볼 수 있다. 이번 구글I/O의 가장 큰 흐름이 바로 이 머신러닝의 접목이다.

google_io_3

‘액션 온 구글(Action on Google)’도 소개됐다. 이는 주로 질문에 답하는 데 집중되어 있던 구글 어시스턴트에 이름 그대로 ‘동작’을 더할 수 있는 기능이다. 키노트에서는 배달 음식을 주문하는 시나리오가 소개됐는데, 주변에 주문할 수 있는 음식을 고르고, 결제하고, 본인 확인까지 단숨에 거치는 식이다. 이처럼 외부 서비스를 구글 어시스트에 붙일 수 있도록 열린 것이다.

지난해 소개됐던 ‘구글 홈(Google Home)’은 더 진화됐다. 애초 구글 어시스턴트를 품은 클라이언트 기기로 소개됐고, 질문에 답하거나 간단한 명령을 처리할 수 있었다. 구글 그 자체의 정보 검색과 콘텐츠 소비 기기였던 셈이다. 하지만 이 구글 어시스턴트가 점점 더 진화하면서 1년 만에 구글 홈 역시 새로운 재주들이 늘었다.

눈에 띄는 것은 목소리 인식이다. 구글 홈은 기본적으로 목소리로 제어하는 기기다. 하지만 구글 홈은 거실이나 주방에 두는 공용 기기다. 이 때문에 구글 홈은 사생활 정보에 다소 예민할 수 있다. 업데이트되는 구글 홈은 6명의 목소리를 학습해 누구의 목소리인지 기억한다. 목소리와 구글 계정이 연결되는 것이다. 그래서 “일정을 알려줘”라고 말하면 정확히 그 사람의 구글 캘린더 정보를 보여주는 것이다.

google_io_4

구글 홈으로 전화도 걸 수 있게 된다. 구글은 원래 행아웃을 이용해 인터넷 전화를 걸 수 있었다. 일반 전화에 무료로 연결할 수 있는데, 이를 구글 홈으로 확장해서 말로 “엄마에게 전화 걸어줘”라고 말하면 구글 홈으로 연결된다. 목소리로 이용자를 인식할 수 있게 되면서 주소록 기반의 서비스를 할 수 있게 된 덕이다.

구글 홈은 단순히 스피커 역할에 멈추지 않는다. 집에서 이동할 목적지를 물으면 관련 정보를 스마트폰으로 전송해 구글 맵으로 경로를 알려주기도 하고, 원하는 넷플릭스 콘텐츠를 말하면 TV로 해당 영상을 재생해준다. 꼭 목소리를 내지 않더라도 스마트폰을 이용해 텍스트로 명령을 내리거나 질문을 던져 가족간에도 사생활을 보호할 수 있게 했다.

무엇보다 가장 솔깃한 것은 언어의 확장이다. 구글 어시스턴트가 독일어, 일본어, 프랑스어를 할 수 있게 되면서 구글 홈 역시 쓸 수 있는 언어가 늘어났다. 그리고 올해 말에 드디어 한국어 구글 어시스턴트가 시작된다. 이때 스페인어도 함께 작동한다. 올해 말이면 국내에서도 구글 홈을 구입할 수 있을 것으로 보인다.

이와 함께 구글은 거의 모든 안드로이드 기기로 구글 어시스턴트를 확대할 계획이다. 이제까지는 구글의 ‘픽셀’ 스마트폰과 삼성전자 갤럭시S8, LG전자 G6 정도에만 들어갔는데, 대부분의 안드로이드에서도 구글 어시스턴트를 쓸 수 있게 된다. 또한 구글은 iOS용 구글 어시스턴트를 키노트 직후에 출시했다. 아직 한국어를 쓸 수 없기 때문에 미국 앱스토어에만 있고 아직 한국 앱스토어에는 뜨지 않는다.

google_io_5

구글 포토 역시 더 진화했다. 애초 구글 포토는 단순 사진 보관함이 아니라 머신러닝을 이용한 사진 도구에 가까웠는데, 머신러닝이 더 진화했다. 특히 공유가 눈에 띈다. 구글 포토는 원래 사진을 묶어서 손쉽게 다른 사람과 공유할 수 있는데, 구글은 여기에 한 술 더 떠서 사진 속 사람을 인식해 특정 사람과 자동으로 사진이 공유되는 기능을 소개했다. 아이가 나온 사진을 부모님과 공유하도록 설정하면 앞으로 구글 포토에 등록되는 아이 사진은 모두 자동으로 부모님의 구글 포토 앨범에 쌓이는 식이다.

또한 구글은 구글 포토 내의 사진을 골라서 실제 종이 앨범으로 만드는 서비스도 발표했다. 특정 주제나 관련 내용을 자동으로 묶어주는 것이 특징이다. 이 역시 머신러닝으로 사진의 주제를 읽어서 특정 주제나 행사, 혹은 주인공에 따라 자동으로 이야기를 만들어준다. 앨범은 소프트 커버가 9.99달러부터, 하드 커버가 19.99달러부터 판매된다. 아직은 미국에서만 서비스된다.

당연해 보이지만 구글 포토에 구글 렌즈도 서비스 형태로 들어간다. 앨범 안에서 사진이나 영상을 구글 렌즈로 해석해서 관련 정보를 보여주는 것이다. 구글 포토는 애초 머신러닝으로 시작했고, 구글 머신러닝의 진화와 함께 계속해서 성장하고 있다.

google_io_6

새 안드로이드에 대한 이야기는 상대적으로 순서가 뒤로 밀렸다. 구글은 이미 지난 3월 안드로이드 O를 개발자 프리뷰 버전으로 공개했던 바 있다. 이번 구글 I/O를 통해 두 번째 개발자 프리뷰가 공개되면서 기능들도 조금 더 확실히 드러났다.

새 안드로이드는 언뜻 보면 기존 안드로이드와 비슷해 보이지만 동영상이나 다른 앱을 창으로 띄우는 PIP(Picture in picture) 기능이 더해졌고, 디스플레이에 :따라 색을 조절하는 컬러 매니지먼트도 들어간다. 안정성을 높이는 요소들도 더해진다. 성능과 전력을 실시간으로 적절히 배분할 수 있게 됐고, 기기를 켜는 부팅 시간도 절반 수준으로 줄었다. 특정 앱이 지나치게 배터리와 메모리를 쓰면 이를 정리하는 기술도 소개됐다.

보안 요소도 확장됐다. 앱의 권한이 다른 앱을 건드리지 못하도록 샌드박스는 더 강화됐고, 앱의 보안 위협을 실시간으로 감시하는 서비스도 들어갔다. 구글 플레이 스토어에 등록되는 앱들은 머신러닝 기반으로 계속해서 분석해 보안 위협을 미리 차단하겠다는 설명도 더했다.

google_io_7

구글의 머신러닝 플랫폼인 텐서플로도 안드로이드에 더해진다. 상세한 내용이 공개되지는 않았는데, 스마트폰에 머신러닝 처리를 위한 별도의 프로세서(DSP)를 더하는 것을 슬쩍 언급하기도 했다.

전반적으로 안드로이드는 이전에 비해 순서가 뒤로 밀리긴 했지만 여전히 구글에게 안드로이드는 가장 중요한 플랫폼이다. 이를 보여주는 게 새로운 개발 언어다. 구글은 코틀린(Kotlin)을 안드로이드 스튜디오 3.0에 접목했다. 코틀린은 최근 안드로이드 앱 개발 환경에서 새로 떠오르고 있는 언어다. 문법이 아주 간단해서 개발과 유지보수가 수월하기 때문이다. 구글은 아예 이를 안드로이드용 공식 개발 환경으로 끌어안아 안드로이드 스튜디오에 집어넣었다.

코틀린은 전체 키노트에서 가장 개발자들에게 좋은 반응을 얻었다. 개발자들을 대상으로 한 별도 키노트를 통해 일부 기능을 미리 보여주기도 했는데, 특히 기존의 복잡한 자바 코드를 복사해서 붙여 넣으면 자동으로 코틀린의 간단한 문법으로 변환되는 모습에서 큰 박수를 받았다.

google_io_8

안드로이드 고(go)에 대한 언급도 있었다. 안드로이드 고는 작은 안드로이드라고 보면 되는데, 기기 성능이나 데이터 환경이 좋지 않은 국가들을 위한 안드로이드 플랫폼이라고 보면 된다. 이미 인도에서는 자리를 잡아가고 있다. 새로 발표된 내용은 안드로이드 앱을 10MB 안쪽으로 만들 수 있고, 별도의 서비스에 가입하지 않아도 유튜브 콘텐츠를 오프라인으로 보관하거나, 인터넷 없이 블루투스 등으로 기기대 기기간 유튜브 영상을 친구와 공유할 수 있는 기능을 더했다. 또 다른 환경에 놓인 시장에 대한 전략 변화로 해석할 수 있다.

가상현실 이야기도 빠지지 않았다. 지난해 구글 I/O에서 소개됐던 VR기기 ‘데이드림’은 갤럭시S8로 확대되고, 차후에 공개될 LG전자의 스마트폰에도 적용될 계획이다. 또한 스마트폰 형태 외에도 오큘러스처럼 VR만을 위한 스탠드얼론 형태의 기기도 소개됐다. 이 기기들은 센서의 정확도를 높이고, 카메라를 달아 주변 환경을 인식할 수 있도록 할 계획이다. 지난 주 마이크로소프트가 소개한 MR 기기와 비슷한 형태로 볼 수 있다. HTC의 바이브와 레노버의 기기가 올 하반기에 출시될 계획이다.

증강현실(AR) 플랫폼인 탱고는 흥미로운 방식으로 진화했다. 사물을 읽어내는 컴퓨터 비전과 지도 기술을 합친 VPS(Visual Positioning System)이다. 기존 GPS가 위성으로 현재 위치를 파악한다면 VPS는 주변 환경을 기준으로 현재 위치를 읽는 것이다. 건물 안이나 지하처럼 위성 신호가 닿지 않는 곳에서는 제 아무리 구글지도라도 현재 위치를 파악하지 못한다. 하지만 VPS 스캐너로 실내를 학습시킨 공간에서는 구글 지도를 열면 스마트폰이 주변 환경을 인식해 위성신호 없이도 현재 위치를 읽어낼 수 있게 된다. 이름처럼 시각적으로 위치 정보를 알려주는 시스템이다.

google_io_9

전체적으로 이번 키노트를 통해 구글이 소개한 서비스들은 세상에 없던 기술이 나왔다기보다 기존에 구글이 잘 하던 것들에 머신러닝을 접목해 새로운 경험을 만들어내는 데에 집중되어 있었다. 순다 피차이 CEO는 “머신러닝을 세상의 모든 곳에 적용할 수 있다”고 말했다. 이른바 머신러닝의 대중화, 혹은 민주적 인공지능(Democratize AI)이다.

이를 위해 구글은 클라우드에 더 나은 머신러닝 엔진을 더하고, 더 많은 사람들과 더 많은 서비스에 머신러닝이 접목될 수 있도록 하겠다고 밝히기도 했다. 지난해 구글 I/O에서 소개됐던 텐서플로용 프로세서 TPU도 2세대에 접어들었다. 기존 TPU보다 성능은 15~30% 높아졌고, 전력 효율성은 30~60% 늘었다. GPU와 비교해도 더 나은 성능을 보여주는 게 특징이다. 구글은 이미 TPU에 대한 개발을 마쳤고, 이를 구글 컴퓨트엔진에 적용해 서비스 형태의 머신러닝을 제공한다.

또한 Google.ai라는 플랫폼을 통해 연구와 앱 개발 등 많은 분야에서 누구나 인공지능을 접목할 수 있도록 했다. 이와 함께 뉴럴네트워크를 스스로 훈련시키는 뉴럴네트워크인 ‘오토 머신러닝’도 함께 발표했다. 머신러닝의 가장 큰 숙제인 학습의 효율성과 속도를 비약적으로 높이는 기술이다.

google_io_10

쉴 새 없이 이어진 구글의 이야기는 결국 머신러닝으로 시작해서 머신러닝으로 끝났다. 구글의 2017년은 인공지능 그 자체에 있다. 사실 이번에 소개된 서비스들도 우리가 익숙하게 쓰던 것들이 대부분인데, 여기에 머신러닝이 접목되는 것으로 완전히 다른 형태의 서비스로 진화했다. 구글은 무엇보다 그 가능성을 높게 보는 듯하다. 순다 피차이 CEO의 한 마디는 구글의 변화를 잘 설명해준다. ‘모바일 퍼스트에서 AI 퍼스트로 이동한다(Mobile first to AI first)’

글. 바이라인네트워크
<최호섭 기자>hs.choi@byline.network

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다