미치게 쉬운 3D의 시대가 온다

“다음 세대의 데이터는 3D에서 폭발적으로 만들어질 것”

양상환 네이버D2SF 센터장의 말입니다. D2SF는 개발자를 위한(의한) 스타트업 팩토리라는 뜻인데요, 네이버가 운영하는 스타트업 액셀러레이터입니다. D2SF는 15일, 그간 투자해온 스타트업 중 3D 기술 개발에 초점을 맞춘 네 곳의 회사를 소개하는 미디어데이를 가졌습니다. 3D 모델을 누구나 쉽게 만들 수 있는, 보편적인 툴을 개발하는 곳들이죠.

3D 모델링은 그동안 전문가의 영역으로 여겨져왔는데, 그 벽이 허물어지고 있습니다. 실시간 딥러닝 기술이 3D 모델링에도 들어왔고, 똑똑한 창업자들이 “스마트폰 촬영 한 번으로” 3D 모델을 만들어내는 서비스들을 들고 나오고 있거든요.

제가 제목에 ‘미치도록’이라는 말을 집어 넣어서, 조금 과장되게 들릴 수 있겠는데요. 저도 직접 만들어본건 아니지만, 이 스타트업의 대표들이 앞에서 시연하는 모습을 보니, 조금만 배우면 나도 금방 만들어낼 수 있겠다는 생각이 들더군요.

멀게 볼 필요도 없죠. 스마트폰이 등장하면서 누구나 유튜버가 될 수 있었듯, 3D 모델을 만들어내는 것도 기술적으로는 대중화가 가능해졌다는 뜻입니다. 이미지나 영상 데이터가 폭발적으로 증가했듯, 3D 데이터 역시 크게 늘어날 것은 확실해 보입니다.

그 미래를 만들어 가는 길목에서, 이날 소개된 네 팀이 어떤 기술을 만들고 있는지 간략하게 소개합니다. 무대에 오른 곳들은 리콘랩스, 엔닷라이트, 플라스크, 굳갱랩스입니다.

양상환 네이버D2SF 센터장

#리콘랩스
#3D 이미지를 척척 만들어내는 셀러의 등장

“3D 모델을 제작하고/ 편집하고/ 이용하는 3단계를 모두 지원한다.”

말로만 들으면 어렵죠? 그래서 살짝 유튜브를 뒤져봤습니다. 리콘랩스가 최근에 올려놓은 데모영상이 있더군요.

YouTube video

대략, 이 의자 오브젝트를 3D 모델링 하는 방식은 이렇습니다. 스마트폰으로 의자를 360도 촬영합니다. 이건 그냥 스마트폰 동영상 촬영 기능 켜놓고 사물을 360도 돌아가면서 찍으면 되니까 누구나 할 수 있겠죠. 그렇게 촬영한 영상을 리콘랩스 클라우드 서버에 업로드합니다. 그러면, 딥러닝 기술을 투입, 영상에 찍힌 사물을 3D로 재건해냅니다.

위 영상의 처음을 보면 뭔가 지점토가 덕지덕지 붙어 있는 모양이라서, 이게 뭐 제대로 되는 건가 싶을 수 있으실텐데요. 학습이 진행되는 과정을 거치면서 형체가 뚜렷해져 3D 모델이 만들어지는 방식이라고 합니다. 리콘랩스는 이 기술을 적용한 서비스 이름을 메타리콘(MetaRECON)이라고 붙였습니다.

원래는 이런 모델링을 하는데 전문가가 나흘에서 일주일까지 시간을 써야 했다고 하는데요. 리콘랩스 측은 메타리콘이 3D 모델링을 하는데 대략 30분이 소요된다고 설명합니다. 만들어진 3D 모델에는 이용자가 원하는 색이나 텍스처를 입힐 수 있겠죠? 자 여기까지가 제작과 편집입니다.

이용은요? 만약 당신이 물건을 파는 셀러라면, 이런 기술을 활용해서 팔고자 하는 제품을 입체적으로 온라인 전시를 할 수 있을 겁니다. 3D 모델로 제품 소개가 나갈 경우 기존보다는 더 자세한 정보가 전달되니까 구매전환율은 높아지고, 반품율은 낮아진다고 반성훈 리콘랩스 대표는 설명합니다.

반성훈 리콘랩스 대표.

# 엔닷라이트
# 내 마음대로 실시간 만들어내는 메타버스 공간

“초등 3학년을 대상으로 일주일에 한 시간씩, 네 번 정도 교육을 하는 프로젝트를 진행했더니, 우리가 익히 아는 메타버스 월드 하나를 뚝딱 만들 정도로 쉽게 배우더라”

엔닷라이트는 엔닷캐드라는, 3D 그래픽 디자인 툴을 만듭니다. 쉬운 사용성, 그리고 이용자가 원하는대로 그래픽 디자인을 맞춤제작 할 수 있다는 것을 강점 삼았습니다. 박 대표는 “마우스를 겨우 이용하는 아이들도 쉽게 쓴다”라고 강조했을 만큼, 이 툴이 쉽다고 강조했는데요.

엔닷캐드로 뭘 만들 수 있느냐면, 로블록스 게임 안에 내가 원하는 사물이나 공간을 구현할 수 있죠. 인테리어 디자인 같은 것은 물론이고요. 개발중인 자동차의 3D 모델링 역시 가능한 부분입니다.

3D 그래픽 디자인 툴이야 기존에도 많이 있지만, 엔닷라이트가 주목받는 것은 이 툴이 웹에서 구현가능하기 때문이죠. 박진영 엔닷라이트 대표는 “CES에서 혁신상을 받고 MWC에서도 웹베이스로 구현 가능한 기술로 주목받았다”라고 말했는데요, 웹에서 돌아가는 기술인만큼 파급력이 크기 때문에 글로벌 출시를 하면 빠르게 시장에 진입할 수 있을 것으로 박 대표는 기대했습니다.

박진영 엔닷라이트 대표

# 플라스크
# 센서 없이도 모션캡처

“미치게 쉬운데?” 라는 제목을 붙인 데는 플라스크의 발표가 한 몫을 했습니다. 몸을 잘 쓰는 사람이 초록색  크로마키 스크린을 배경으로 관절마다 센서를 붙이고 움직여 얻어낸 데이터를 3D로 변환해 얻어내는 것이 모션캡처였는데요(물론 다른 방식도 있습니다만). 플라스크는 스마트폰으로 촬영한 그 어떤 이미지나 동영상에서 곧바로 모션캡처를 만들어냅니다. 이것도 영상 보고 오시죠. 플라스크 홈페이지에서 가져왔습니다.

오른쪽 사람의 움직임을, 왼쪽의 3D 모델이 실시간 따라 합니다. 사람의 몸에는 그 어떤 센서도 붙어 있지 않고 마커가 칠해져 있지도 않습니다. 그럼에도 불구하고 관절의 움직임이 부드럽게 옮겨졌죠?

이 기술을 활용하면 애니메이션을 보다 쉽게 만들 수 있게 됩니다. 아, 여기서 애니메이션은 만화를 뜻하는 것은 아니고요. 캐릭터의 동작이 살아 움직이도록 만드는 제작과정을 뜻한다고 합니다.

이준호 플라스크 대표는 이 기술이 가능한 이유를 “이미지나 영상 속 인물의 3D 모션 데이터를 예측하는 AI와, 그 AI를 쉽게 사용할 수 있는 브라우저 기반 소프트웨어를 만들고 있기 때문”이라고 설명합니다.

모션만 뽑아내는 게 아니라, 브라우저에서 돌아가는 툴 안에서 보정 수작업도 가능하다고 하니까, 확실히 동작을 뽑아내는데 들어갔던 시간과 비용을 대폭 줄일 수 있는 기술인 것으로 보입니다.

이준호 플라스크 대표

# 굳갱랩스
# 내 표정을 실시간 재현해내는 나의 아바타

굳갱랩스는 사실 이날 D2SF의 주인공이었습니다. D2SF가 이날 투자 소식을 깜짝 발표했기 때문이죠. 굳갱랩스 기술도 영상을 보고 오면 더 이해가 빠를 것 같은데, 아쉽게도 공유가 가능한 영상이 없어서 이미지로 캡처를 좀 해왔습니다. 이미지만 봐도 감이 딱 오지 않습니까?

출처=굳갱랩스 홈페이지

사람 표정을 실시간으로 렌더링해서 아바타로 표출합니다. 내 표정을 아바타가 기가 막히게 따라하죠. 보다 극적인 느낌을 주기 위해서, 더욱 과장되게 표정을 따라하는 기술도 연구중이라고 합니다.

이 기술은 메타버스는 물론이고요, 화상회의 같은데서 써먹기 좋을 거라고 안두경 굳갱랩스 대표가 설명했는데요. 화상 회의에 얼굴을 내비치는 건 좀 부담스러운데, 목소리로만 의견을 나누니 표정과 같은 비 언어적 요소가 부족해 의사전달이 원활치 않다고 느껴질 때 이와 같은 기술이 적절할 거라고 하네요.

안두경 굳갱랩스 대표

굳갱랩스는 이날 3D 아바타 기반의 실시간 커뮤니케이션 플랫폼 ‘키키타운’을 공개하기도 했는데요. 현재 알파테스트 중인 공간입니다. 웹 기반의 플랫폼으로, 디바이스나 OS 제한 없이 사용할 수 있도록 구현 중입니다. 네이버 D2SF 측은 키키타운과 관련해서 “네이버제트와도 아바타 기술 개발에 있어 협업을 적극적으로 이어갈 계획”이라고 밝히기도 했습니다.

글. 바이라인네트워크
<남혜현 기자> smilla@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다