사람처럼 움직이는 로봇 프로젝트, 얼마만큼 왔나?

로봇이 대중화되려면 어떤 조건이 필요할까?

우선 싸야 한다. 가격이 저렴해야 보급이 빨리 된다. 로봇의 값을 내리려면 비싼 부품을 적게 써 제작비를 줄여야 한다. 어떻게? 네이버는 이 답을 ‘클라우드’에서 찾기로 했다. 그동안 모든 로봇은 상황을 인식하고 판단, 제어하는 ‘뇌’를 본체 안에 담고 돌아다녔는데 이걸 클라우드로 옮기는 방식을 택한 것이다.

25일 열린 네이버 개발자 컨퍼런스인 ‘데뷰(DEVIEW)2020’에서 석상옥 네이버랩스 대표는 클라우드로 로봇을 제어하는 인텔리전스 시스템  ‘아크(ARC, AI-Robot-Cloud)’를 공개했다. 네이버는 아크를 현재 건설 중인 네이버 제2사옥에 처음 상용화한다는 계획인데, 이날 발표를 보면 네이버가 자율주행 기술에 얼마만큼 다가갔는지 그 힌트를 얻을 수 있다.

석상옥 네이버랩스 대표

아크는 쉽게 말해, 클라우드로 로봇을 제어하는 솔루션이다. 클라우드 안에 고정밀 지도와 최신 알고리즘을 갖춰놓고 로봇이 원할 때마다 통신을 통해 정보를 보내준다. 여기서 중요한 것은 클라우드 안에 얼마나 정확하고 방대한 정보를 갖춰놨느냐와 또, 이를 시의적절하게 로봇에 데이터로 내려줄 수 있는 통신속도다. 따라서 개별 로봇이 본체에 비싼 부품을 모두 갖출 필요는 없다.

석상옥 대표는 “많은 사람이 로봇 서비스에 친숙해질 수 있도록 널리 퍼지기 위해서는 아주 많은 로봇이 제작되어야 하지만 고가 센서나 고성능 CPU로 각각의 로봇 성능을 높이는 기존 방식으로는 충분하지 않다”며 “모든 로봇이 동시에 똑똑해질 수 있는 혁신적인 전환이 필요하다”며 아크가 지향하는 방향을 강조했다.

관련해 네이버랩스는 클라우드 안에 있는 데이터와 현실 세계를 움직이는 로봇 본체를 연결하기 위해  ‘아크 아이’와 ‘아크 브레인’이라는 기술을 개발했다. 각각 로봇의 눈과 뇌에 해당한다. 이 기술들이 각각 어떤 역할을 하는지는, 네이버랩스가 공개한 아크 소개 영상의 한 구절을 인용해 소개한다.

 

아크 개념도

“아크 아이는, 로봇을 위한 천리안이다. 로봇이 어디에 있더라도 현재 위치를 정확하게 인식해 가장 효율적인 동선을 로봇에게 전달한다. 사진 한 장으로 위치 추정이 가능한 비주얼 로컬라이제이션(Visual Localization)이라는 AI기술 때문이다.

아크 브레인은 모든 로봇이 동시에 공유하는 하나의 두뇌다.  5G 네트워크의 초저지연 성능을 활용해 로봇의 두뇌를 클라우드로 옮길 수 있었다. 네이버 클라우드가 이동과 측위, 태스크 수행을 위한 처리를 대신하면 로봇 자체의 제작비와 배터리 소모를 크게 낮출 수 있다. 아크 브레인은 공간이나 서비스 인프라와 실시간으로 연결된다. 데이터와 알고리즘을 업데이트해서 모든 로봇들을 점점 더 똑똑하게 만들 것이다.”

아크라는 결과물을 내기 위해 네이버랩스는 그동안 개발해 온 여러 기술을 여기에 결합했다. 대표적인 기술이 실내 고정밀 지도를 제작하는 매핑로봇 M1이다. 공간을 스캔 해 클라우드에 올려 놓으면 로봇이 사진을 한 장 찍어 전송하는 것만으로 자신의 위치가 어디인지 정확하게 알 수 있게 한 기술이다. GPS가 없는 실내에서 다른 인프라 장비의 도움을 받지 않고 정밀한 위치 인식이 가능한 비주얼 로컬라이제이션 기술이나, 5G 통신으로 데이터를 주고받게 하는 브레인리스 기술도 포함했다.

눈 여겨 볼 것은 ‘고정밀 지도’다. 네이버랩스 측은 그동안 자율주행 기술을 위해 크게 두 축에 힘을 줘 왔다. 첫째가 로봇이 읽을 수 있는 정확한 지도다. 실내외와 도로에 이르는 일상공간을 끊김없이 연결할 수 있도록 데이터 확보를 위한 맵핑 솔루션을 만드는데 주력해왔다. 네이버랩스는 앞서 GPS 기술 없이 서울 삼성동 코엑스 내부를 로봇이 돌아다닐 수 있도록 하는 실내지도를 만들었는데 올해는 항공사진을 기반으로 서울시 전역을 3D 모델링해 공개했다.

출처= 석상옥 네이버랩스 대표 발표 장면 캡처. 드론으로 촬영한 영상이 아니라 3D 모델링의 결과물이다.

위 사진은 측량 기술과 인공지능을 활용해 서울시내를 3D 모델링한 결과물이다. 석 대표에 따르면 이 3D 모델을 통해 서울시 전역 4차선 도로에 해당하는 총 2029km의 로드 레이이아웃을 추출해 그 결과물을 국내 자율주행 연구단체들과 공유했다.

석 대표는 “마치 드론으로 촬영한 영상처럼 보이지만 3D 모델링을 한 결과물”이라며 “로봇이 세상을 이해하는데 우선적으로 필요한 데이터가 기계가 읽을 수 있는 HD지도라고 생각해 수년간 고정밀 지도 솔루션에 집중해왔다”고 말했다.

그는 아크를 로봇을 위한 네이버의 서비스와 같다고 설명했는데, 사람들이 네이버의 검색이나 지식인, 지도 서비스에서 필요한 정보를 얻고 있는 것처럼 로봇도 아크를 통해 사람과 공존하기 위한 정보를 실시간으로 얻을 수 있게 한다는 것이다. 클라우드를 활용한 기술이 로봇의 대중화를 이끌 수 있다고도 설명했다.

이날 석 대표의 발표에서 잠깐 공개된 네이버랩스의 비밀 연구소. 아직까지 외부에 공개된 적은 없는 곳이다. 로봇전문가인 석 대표가 부임 후에도 본사와 이곳을 오가며 일하고 있는 것으로 알려졌다.

네이버랩스가 자율주행 기술을 위해 공을 들이고 있는 두번째 축은 ‘사람처럼 움직이는 로봇’이다. 석 대표는 인간을 닮은 로봇의 개발이 어떻게 진행되고 있는지도 공유했다. 네이버에서 ‘로봇’이란 키워드를 공공연히 발표하기 시작한 때가 2017년인 것 같은데, 이후 매해 ‘로봇’과 관련해 얼마만큼 기술이 발전했는지를 발표하고 있다.

지난해 CES에서는 아예 구글 옆에 부스를 차리고 산학협력으로 만들어낸 로봇팔 ‘엠비덱스’를 깜짝 공개하기도 했다. 사람과 같은 일곱개의 관절을 갖고 있어 물건을 집어 옮기거나 혹은 하이파이브를 하는 모습을 보여 화제가 됐다.

팔과 손을 움직여 인간과 같은 동작을 하는 엠비덱스. 출처= 석상옥 네이버랩스 대표 발표 장면 캡처

데뷰에서 다시 공개된 엠비덱스는 이전보다 개선됐다. 석 대표에 따르면 “처음엔 양팔만 있었다면 그 다음에는 허리를 달아서 워크 스페이스를 크게 확장했고 센서헤드를 통해 대상을 인식할 수 있는 눈이 생겼으며 정밀하게 잡고 강하게 움켜잡는 것을 하나의 로봇손으로 구현한 BLT 그리퍼를 장착한 것”이 엠비덱스의 발전사다. 여기에 한국기술교육대, 서울대학교 연구팀이 함께 했다.

그러나 무엇보다 달라진 것은 엠비덱스가 사람의 ‘육체 지능(Physical Intelligence)’을 학습하기 시작했다는 것이라고 강조했다. 빵을 꺼내 그 위에 잼을 바르거나 혹은 콘센트에 전원을 꽂는 것 같은, 사람은 별다른 의식없이 아주 쉽게 행할 수 있는 동작도 로봇이 구현하기 위해서는 그 과정과 원리를 매우 복잡한 알고리즘으로 만들어내야 한다. 이 과정이 얼마나 복잡하냐면 석 대표는 “(육체 지능을) 인공지능 기술로 해결하고 싶어도 참고할만한 것이 없었다”고 말할 정도로 어려운 분야다.

네이버랩스가 택한 것은 로봇이 사람의 운동지능을 직접 학습할 수 있도록 하는 ‘태스크 러닝 프로젝트’였다. 이를 위해 개발한 것이 엠비덱스 햅틱 디바이스다.

사진은 마치 VR의 한 장면 같다. 사람이 움직이는 동작 데이터를 받아 로봇 팔이 그대로 움직인다. 사람- 아바타의 연결처럼 사람-로봇이 연결되어 있는데, 사람이 어떻게 움직이는지 그 내용 그대로를 로봇이 받아 학습하는 개념이다.

햅틱 디바이스는 사람과 로봇 양방향으로 힘과 자세가 전달되는 특징을 갖고 있다. 사람이 직접 수행한 작업에서 로봇의 학습 데이터를 추출하고 강화학습 등의 방법으로 로봇을 학습 시킨다.

석 대표는 “학습의 결과는 놀라웠는데, 사람으로부터 받은 단 한 번의 학습 데이터를 바탕으로 사람의 개입없이 로봇이 작업에 성공할 수 있을 정도로 높은 정확도와 효율을 확인할 수 있었다”고 말했다.

글.바이라인네트워크
남혜현 기자 <smilla@byline.network>

관련 글

첫 댓글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다