거세지는 ‘딥페이크’ 위협…보안업계 대응 노력 활발
[무료 웨비나] 개발자를 위한 클라우드플레어를 소개합니다
◎ 일시 : 2025년 2월 6일 (목) 14:00 ~ 15:00
[무료 웨비나] 중동의 ICT 및 테크 기업 생태계 – 사우디 아라비아, UAE를 중심으로
◎ 일시 : 2025년 1월 23일 (목) 14:00 ~ 15:10
팔 걷은 보안업계…AI에 AI로 대응
딥페이크 제작 방식 역이용하기도
인공지능(AI) 기술 발달과 맞물려 ‘딥페이크(Deepfake)’ 문제가 사회적 위협으로 떠오른 가운데 이에 대응하기 위한 노력이 활발하다. 기술 발달을 악용한 딥페이크의 습격에 보안업체들은 AI 기술로 맞불을 놓는 양상이다.
경찰청에 따르면 딥페이크 등으로 제작한 허위 영상물 관련 범죄 건수는 2021년 156건에서 2022년 160건, 2023년 180건으로 갈수록 늘어나는 추세다. 특히 2024년은 7월까지만 297건으로 올해 들어 위협이 크게 증가하는 것으로 나타났다.
SK쉴더스의 화이트해커 전문가그룹인 이큐스트(EQST) 또한 올해 상반기 보안 위협 중 하나로 딥페이크를 꼽기도 했다. 지난 7월 이큐스트는 딥페이크 영상을 통한 금전 탈취 사례를 소개하는 등 음란물 사례를 넘어 사회 전반으로 위협이 번져나가는 상황이다.
보안업체들은 적극적으로 팔을 걷어 붙이고 있다. 피해를 예방하기 위한 기술 개발에 박차를 가한다. 이미 상용화 단계에 들어선 곳도 있고 막 연구개발을 시작한 곳도 있다. 형태는 각기 다르지만 딥페이크 피해 예방에 총력을 기울이는 게 현재 업계의 모습이다.
[관련 기사: [그게 뭔가요] 진짜로 속여 피해 유발하는 ‘딥페이크’]
솔루션 형태는 다양하다. 영상의 진위를 미리 확인할 수 있게 하거나 딥페이크 기술의 근간을 역이용하는 사례도 있다. 딥페이크 영상물을 아예 제작할 수 없도록 원천 콘텐츠를 가리는 솔루션도 등장했다.
라온시큐어는 올해 하반기 중으로 탐지 서비스를 선보인다고 밝혔다. 주파수 계열 변환, 안면 추출 등 다양한 기술을 적용해 합성된 얼굴과 진짜 얼굴의 진위 여부를 가려낸다.
회사는 다양한 탐지 모델을 혼합해 쓰는 것이 특징이라고 설명했다. 탐지 솔루션은 눈의 움직임, 입모양 등을 중점적으로 보면서 진위를 판별해 내는 데, 눈과 입처럼 특색이 다른 객체의 경우 복수의 탐지모델로 정확도를 높이는 식이다.
라온시큐어 관계자는 “(인물 특성에 맞는) 다양한 모델을 활용해 탐지율을 높인다”면서 “모바일 백신 애플리케이션의 신기능 중 하나로 탑재해 딥페이크 여부를 확인하도록 할 계획”이라고 밝혔다. 추후에는 기관과 기업용 응용프로그래밍인터페이스(API) 형태로도 제공할 예정이다.
AI 전문기업 딥브레인AI은 이미 연구개발을 마치고 관련 솔루션을 출시했다. 영상의 진위 여부를 5~10분 내로 판별할 수 있는 제품이다. 해당 솔루션은 현재 경찰청에서도 활용하고 있다.
특징은 복합적인 딥페이크 콘텐츠의 구성요소 별로 나눠 분석하는 점이다. 이미지·음성·영상을 구간단위별로 분석한다. 요소별 분석이 들어가기 때문에 해당 제작물이 얼굴만 바꾼 페이스스왑(Faceswap)인지, 목소리를 얹은 립싱크(Lip sync)인지, 아예 생성AI로 새로 만든 영상인지 등 다양한 판별 유형을 자랑한다.
생성AI 전문기업의 노하우를 살린 것도 특징이다. 회사 관계자는 “데이터에 자사의 AI 기술을 더했다”며 “가짜 데이터를 (생성AI 기술로) 만들고 이를 학습시킨 뒤, 어떤 게 진짜이고 가짜인지 특색을 가려내는 학습을 (추가로) 진행했다”고 설명했다.
정부도 딥페이크발 위협을 심각하게 인식하는 가운데 국가 연구사업을 통해 기술 개발에 나선 곳이 있다. 샌즈랩은 지난 4월 수주한 과학기술정보통신부와 정보통신기획평가원(IITP)이 발주한 ‘정보보호 핵심 원천기술 개발사업’의 일환으로 엘지유플러스와 함께 관련 기술 개발에 착수했다.
AI 모델을 개발하기 위한 필수 요건인 데이터셋을 페타바이트(Petabyte) 규모로 자체 보유한 것이 샌즈랩의 강점이다. 샌즈랩은 심층 학습 기반의 알고리즘 개발, 생성적 적대 신경망 기술에 대응하는 학습방법 적용, 멀티모달 데이터 분석 등 딥페이크 탐지 등 기술 연구개발을 거쳐 추후 정부의 정보보호 정책에 힘을 보탠다는 계획이다. 또한 별도의 웹페이지를 개설, 국민들이 쉽게 이미지를 업로드해 진위를 판단하는 베타 서비스도 출시할 것으로 전해졌다.
AI 보안기업 이로운앤컴퍼니는 최근 관련 기술 개발에 착수했다. 이로운앤컴퍼니는 윤두식 전 지란지교시큐리티 대표가 올해 설립한 AI 보안 스타트업이다. 거대언어모델(LLM) 보안 솔루션이 주력 사업이지만 20여년간 보안업계에 몸담은 윤 대표의 노하우를 살려 딥페이크 탐지 기술개발에도 팔을 걷어 붙였다. AI 보안 기업인 만큼 딥페이크 분야까지 외연을 넓히기 위한 포석이다.
회사는 생성적 적대 신경망(GANs·Generative Adversarial Networks)에 주목했다. 딥페이크 제작의 GANs는 생성 모델이 딥페이크를 만들어내면 판별 모델이 결과물의 품질을 검증하면서 정교함을 높이는 방식이다.
하지만 악성 딥페이크 영상의 경우, 미진한 부분을 판별 모델이 가려내고, 다시 생성 모델이 더 정교한 결과물을 내는 일을 반복하는 식의 ‘나쁜’ 방향으로 악용되는 문제가 있었다. 이로운앤컴퍼니는 GANs에서 판별 모델이 생성 모델이 만든 결과물의 퀄리티를 높이는 과정을 역이용한다. 반대로 이 판별 모델이 딥페이크의 오류를 추려내는 데 집중하도록 방향을 잡았다.
어떤 영상물이 GANs를 활용했는지 판단하고, 판별 모델로 결과물의 품질을 따져 진위 여부를 판별하는 구조다. 윤두식 대표는 “판별 모델을 가짜 여부를 가려내는 수단으로 특화시키는 방식”이라면서 “(상용화까지는) 다소 시간이 걸릴 것”이라고 말했다.
탐지에 앞서 딥페이크 활용을 원천 예방하는 솔루션도 등장했다. 자라소프트의 ‘블러미’는 웹사이트에 접속해 사진이나 영상을 올리면 AI가 자동으로 모자이크 처리를 해준다. 사진 원본은 암호화 단계를 거침으로써 유출 이슈도 예방한다고 회사는 설명했다.
고객 상당수는 어린 자녀나 아동의 얼굴 노출을 막기 위해 사용하는 것으로 전해졌다. 자라소프트 관계자는 “(딥페이크 범죄 보도가 나온 이후) 사이트 방문과 가입이 이전 대비 두 배 늘었다”며 “원래는 전체 이용자 중 한국인이 20% 정도였지만 지난 1~2주 사이에 한국 가입자가 두 배가량 뛰었다”고 말했다.
한편 과학기술정보통신부는 내년 예산안에 딥페이크 범죄 예방을 위한 연구과제 예산으로 20억원을 배정했다. 경찰청 또한 텔레그램과 같은 일부 메신저에 대한 수사 강화를 예고했다. 여기에 보안업계의 노력이 더해져 딥페이크 위협 대응에 에는 속도가 붙을 전망이다.
글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network