되짚어 보는 빌드2016 ②플랫폼으로서의 ‘대화’
플랫폼으로서의 대화(conversation as a platform)? 익숙한 듯 아주 낯선 메시지가 등장했습니다. 이번 빌드2016의 한 축이 ‘윈도우 플랫폼’이었다면 다른 한쪽은 ‘대화 플랫폼’으로 꼽을 수 있습니다. 음성 비서 코나타부터, 스카이프, 봇 등에 대한 이야기입니다. 사실 이 부분은 각 요소들이 시선을 끌기 때문에 다 흩어져 있는 것처럼 보이기 쉬운데, 실제로는 모든 이야기가 하나의 궤로 연결됩니다.
사티아 나델라 MS CEO는 무대에 올라 진지한 얼굴로 우리가 나누는 대화에 대해서 이야기합니다. 그는 “인간의 언어는 또 하나의 UI”라고 규정합니다. 대화는 사람간의 상호 작용을 만들어내는 인터페이스인데, 마이크로소프트는 이를 플랫폼으로 만들겠다는 겁니다.
그 안에는 딥 러닝, 머신 러닝 등 인공지능에 대한 이야기도 있습니다. 사티아 나델라 CEO는 인공지능이 가야 할 방향성에 대해서도 언급했습니다. 그는 인공지능은 사람에게 뭔가를 배우게 되는데, 사람들이 어떻게 하면 더 많은 능력을 발휘할 수 있고, 능력과 경험을 확대할 수 있는지가 중요하다고 말했습니다. 그리고 신뢰할 수 있어야 하고, 투명하게 관리되면서 포용력도 가져야 할 것이라고 합니다.
사실 이 이야기는 며칠 전 있었던 텍스트 기반 머신러닝 채팅봇 ‘테이’를 염두에 둔 것 같습니다. 이 인공지능은 태어난 지 하루도 되지 않아 인종차별과 성차별 등 나쁜 말들을 먼저 배우는 바람에 운영을 멈추었습니다. 무엇을 배우느냐도 중요한 문제지만 무엇을 가르칠 것이고, 무엇을 걸러서 배울 것이냐 역시 사람에게 달려 있습니다. 꼭 테이의 예가 아니어도 인공지능과 관련된 우려들은 특정 철학을 가질 필요가 있습니다. 대화, 그러니까 우리의 말은 그렇게 무서운 도구입니다.
자, 다시 기술 이야기로 돌아가보지요. MS는 키노트에서 ‘코타나’를 꺼내 들었습니다. 코타나는 벌써 3년이 다 되어 갑니다. 코타나는 그 사이에 많은 것들을 배웠습니다. 단순히 말 뿐 아니라 세상의 이치나 여러가지 문제 등도 알게 되었다고 합니다. 그 내용들은 윈도우에 쌓여가고 있는데, MS는 점점 기기를 더 확장해서 홀로렌즈나 안드로이드, iOS로도 확장할 계획입니다. 기기의 형태나 운영체제, 저장공간, 성능에 영향을 받지 않도록 하겠다는 이야기도 나왔습니다.
아직 코타나는 한글을 쓰지 못하기 때문에 우리에게 낯설긴 합니다. 그래서인지 데모는 꽤 흥미롭습니다. 메일이나 캘린더와 직접 연결돼서 일정을 스스로 관리하는 데모로 시작합니다. 출장 계획을 잡으면 해당 날짜의 항공편에 대한 정보를 제공하는 건 이제 그리 놀라운 일은 아닙니다. 코타나는 “어제 만든 파워 포인트를 OOO에게 e메일로 보내줘”라는 말에 대해 정확하게 반응합니다. 그게 꼭 PC가 아니라 안드로이드의 코타나에서 이야기해도 똑같이 작동합니다. 문자 메시지 내용을 인지해 캘린더를 관리해주고, 식사 시간에 약속이 겹치면 음식점을 추천해주거나 예약 앱으로 연결해주기도 합니다.
‘지난해 아이 생일에 장난감 선물을 샀던 곳이 어디인지’ 물어보면 그에 대한 답도 해줍니다. 결제 내역과 이동 궤적 등을 뒤져 기억력을 되살려주는 것이지요.
이 분야에서 하이라이트는 스카이프 데모였습니다. 이제 스카이프에도 코타나가 붙습니다. 스카이프는 누군가와 이야기를 나누는 메시징 앱인데 그 대화의 대상이 코타나가 된다고 해서 이상할 것도 없지요. 스카이프로 온 비디오 메일은 내용을 열어보지 않아도 음성을 읽어 텍스트로 보여줍니다. 스카이프의 코타나는 카드형태로 나타나는데, 이 안에서 대화 내용에 따라 다른 서비스를 연결합니다. 그냥 연결이 아니라 ‘봇(bot)’에 연결해줍니다.
휴가를 가려고 한다고 말하면 코타나는 호텔이 필요한지 물어보고, 웨스틴 호텔 봇을 연결해 줍니다. 컵케익이 먹고 싶으면 컵케익 봇에 연결해서 어디에서 살 수 있는지 이야기를 나눌 수 있습니다. 마이크로소프트는 서비스 제공 업체들이 봇을 직접 만들 수 있도록 개발 도구를 공개할 계획입니다. 모든 개발자는 서비스에 봇을 붙이고 머신러닝으로 학습을 시킬 수 있습니다. 현장에서는 도미노 피자를 예로 들어, 스카이프에서 텍스트로 피자를 주문받는 봇을 만드는 시연이 이뤄지기도 했습니다. 주문은 점점 더 머신러닝으로 정확하게 받아들일 수 있도록 진화됩니다. 전화에서 O2O로, 그리고 다시 머신러닝으로 배달 음식의 주문 방법이 달라질 수 있겠다는 생각이 듭니다.
MS는 이와 관련해 코타나 인텔리전스 스위트를 공개하기도 했습니다. 대화 내용을 이해하고, 그에 따른 동작을 할 수 있도록 만들어주는 것입니다. 지난해 빌드에서 공개했던 ‘프로젝트 옥스포드’의 연장선상에 서 있는 것처럼 보입니다. 옥스포드는 지난해 5개의 API를 공개했던 바 있는데, 올해는 22개의 API를 더 추가해서 무료로 공개했습니다. 이미지, 음성, 언어, 지식, 검색을 비롯한 API들이 준비되어 있습니다.
실제 예도 흥미롭습니다. 예로 선보였던 ‘캡션 봇’은 이미지를 분석합니다. 단순히 이미지의 정보를 단어로 정의하는 게 아니라 말로 사진 속의 내용을 설명해 줍니다. 풀밭에 양떼가 뛰놀고 있다고 설명하거나, 모나리자 그림을 보고 ‘거울 앞에 레오나르도 다 빈치가 있는 것 같다’고 말하는 것처럼 이해할 수 있습니다.
이 컴퓨터 비전 기술은 장애인을 위한 스마트 글래스 형태로도 시연됐습니다. 직접 앞을 보기 어려운 시각 장애인이 이 안경을 쓰고 눈 앞을 찍으면 안경이 말로 상황을 설명해주는 겁니다. 어떻게 생긴 사람이 서 있고, 길은 어떻게 되어 있고, 음식점의 메뉴판 내용을 알기 쉽게 알려줍니다. 이게 공상과학 이야기가 아니라 실제로 구현되는 기술로, 마이크로소프트에서 일하는 시각 장애인 개발자가 시연하면서 큰 박수를 받기도 했습니다.
마이크로소프트의 커뮤니케이션 전략이 비슷한 이야기를 꺼내놓았던 다른 사례들보다 흥미로웠던 이유는 여러 기술들이 한 가지 목적을 위해서 통합되었다는 점입니다. 사실 몇 년 전 마이크로소프트가 스카이프를 인수했을 때만 해도 “왜?”라는 궁금증이 일었는데, 여기에 코나타와 머신러닝, 봇, 컴푸터 비전, 웨어러블 컴퓨팅이 더해지면서 완전히 다른 이야기가 됐습니다. 대화를 주고받는 방법에 대한 패러다임 변화라고 볼 수도 있습니다. 이제 기술 하나하나의 중요성보다 각 기술들이 어떤 목적으로 어떻게 합쳐지는지가 더 중요한 시대가 되고 있습니다. 그러고 보니 ‘플랫폼으로서의 대화’라는 이름이 잘 어울리는 듯도 합니다.
글.바이라인 네트워크
<최호섭 기자> hs.choi@byline.network