[그게 뭔가요] 진짜로 속여 피해 유발하는 ‘딥페이크’
인공지능(AI)을 활용한 딥페이크 범죄가 기승을 부리고 있다. AI 기술 발전이 부작용을 낳았다. 쉬운 활용법으로 딥페이크 범죄 피해자의 연령도 낮아지는 추세다.
일파만파로 번진 딥페이크 범죄의 유형은 다양하다. 어원을 보면 기본적인 개념을 엿볼 수 있다. 딥페이크는 딥러닝(Deep learning)과 가짜를 뜻하는 페이크(Fake)의 합성어다. 핵심은 ‘Fake’다. 단순히 사진이나 영상을 합성한 것만으로는 위협적인 딥페이크로 보지 않는다. 예를 들어 대통령의 얼굴에 우스꽝스러운 몸짓을 붙였다고 해도 이는 명백히 가짜임을 알 수 있어서다.
반면 최근 사회 문제로까지 번진 딥페이크는 가짜를 사실로 오인시키고 피해를 유발하는 게 문제다. AI를 활용해 유명 아이돌이나 연예인의 얼굴에 음란행위를 하는 동영상을 합성하고 이를 무작위로 유포한다. AI를 활용한 이미지(또는 영상) 합성물로 피해를 일으킨다.
딥페이크의 1차 단계는 매핑 기술이 담당한다. 원본이 되는 콘텐츠에 또 몸짓이나 말 등 또 다른 콘텐츠를 합성한다. 몇 년전까지만 해도 포토샵으로 만든 조악한 사진 합성이 대다수였지만 AI 기술의 발전으로 영상까지 범위가 늘어났다. 딥페이크가 더 정교해진 건 생성적 적대 신경망(GANs·Generative Adversarial Networks) 기술의 영향이다.
GANs의 개념은 AI 천재로 불리는 이안 굿펠로우(Ian Goodfellow)가 2014년 고안해냈다. 그가 지도교수인 요수아 벤지아(Yoshua Bengio) 교수와 함께 낸 몬트리올대 박사학위 논문에 따르면 GAN는 생성 모델(Generator)과 판별 모델(Discriminator)이 서로 경쟁하는 구조를 통해 정교함을 높인다. 적대 신경망이라는 명칭에서 보듯 서로 다른 AI 신경망이 작용하는 게 핵심이다.
두 신경망이 경쟁하듯이 학습하며 더 진짜 같은 결과물을 만드는 구조다. 생성 모델이 딥페이크 콘텐츠를 만들어내면 다른 판별 모델이 진짜와 가짜 여부를 가려낸다. 신경망끼리 업치락뒤치락하면서 한쪽은 가짜를 만들어내고 한쪽은 검증하는 절차를 반복한다. 2019년에는 엔비디아가 오픈소스로 ‘스타일갠(StyleGAN)’을 공개한 바 있는데 생성AI 발전 속도가 빨라지면서 딥페이크 발전(?)을 위한 불씨도 급속도로 커지는 중이다.
황석진 동국대 국제정보보호대학원 교수는 “AI 기술이 워낙 발달돼 있어 원하는 사람의 체형까지 맞춰서 구현이 가능하다”며 “기존에는 움직이지 않는 정적인 부분(사진)을 가지고 (딥페이크를) 했다면, 요즘은 동적인 부분(영상)까지 활용할 수 있을 정도로 기술이 발전했다”고 진단했다.
딥페이크가 문제가 되는 건 평범한 아이돌 공연을 나체 공연으로 쉽게 둔갑시키는가 하면 유명 인사의 얼굴을 입혀 허위정보를 퍼뜨리고 실제처럼 오인시키는 문제가 있어서다. 또한 목소리 변조도 딥페이크 피해를 가속화하고 있다. 외관이나 몸짓뿐 아니라 위조한 목소리까지 입혀 진짜와 가짜의 구분을 어렵게 만든다.
특히 디지털 성범죄의 한 축으로 급속히 번지는 건 분명한 경고 신호다. AI로 연예인의 신체를 노출시킨 딥페이크를 비롯해 일반인의 얼굴과 음란물 영상을 합성하는 등 특정인을 겨냥한 제작물이 유포되는 등 성범죄 피해로도 이어지고 있다. 만약 내 얼굴을 한 사람이 음란행위를 한다고 생각해 보자. 상상만으로도 끔찍하다. 일반인의 경우 피해 사실조차 모른 채 딥페이크 범죄의 타깃이 될 수 있다.
AI 생성물에 워터마크를 표기하는 것도 하나의 대안으로 제시되지만 재가공의 가능성이 도사리고 있어 근본적인 근절책은 아니다. 황석진 교수는 “딥페이크 음란물을 차단하기 위해 워터마크를 집어 넣는다고 해도, 그 부분만 지우고 다시 만든다고 하면 잡아내기 쉽지는 않을 것”이라고 바라봤다.
커지는 피해에 업계 노력 활발
딥페이크 피해자가 미성년자인것도 심각성을 방증한다. 경찰청에 따르면 2021∼2023년 경찰에 신고된 허위영상물(딥페이크로 편집된 합성음란물) 사건의 피해자 총 527명 중 59.8%(315명)는 10대였다. 20대(32.1%), 30대(5.3%), 40대(1.1%) 등 다른 연령대보다 높은 비율이다.
우리나라의 딥페이크 근절 논의는 이제 걸음마 단계라는 평가지만 IT 업계의 솔루션 개발이 활발한 건 반갑다. 보안과 AI 기업을 중심으로 속속 솔루션을 내놓고 있다.
라온시큐어는 하반기 중으로 딥페이크 탐지 서비스를 선보일 계획이다. 합성된 얼굴과 정상 얼굴을 각각 학습해 상호 비교해 분류할 수 있도록 AI를 학습시킨다. 이미지부터 동영상, 안면 추출, 주파수 계열 변환 등 다양한 기술을 적용해 딥페이크 여부를 탐지해낸다. 자연스럽지 못한 입모양이나 피부 톤 등을 감지해 내는 기술이다.
향후 기업이나 기관이 쉽게 이용할 수 있도록 응용프로그래밍인터페이스(API) 형태로도 제공할 예정이다. 회사는 AI가 작성한 콘텐츠 탐지 기술도 연구 중이다. 추후에는 사람이 직접 생성한 데이터인지 여부를 탐지하는 서비스로 확장할 계획이다.
라온시큐어 관계자는 “예컨대 어떤 영상이 있다고 치면 딥페이크 인지 여부를 확인할 수 있는 형태”라며 “자사의 개인용 모바일 백신 애플리케이션에도 탑재할 계획”이라고 밝혔다.
기관과 협력하는 곳도 있다. AI 전문기업 딥브레인AI도 경찰청과 협력해 딥페이크 탐지 솔루션을 선보였다. 딥브레인AI의 딥페이크 탐지 솔루션은 종합탐지와 음성탐지로 구성된다.
딥페이크 의심되는 영상을 시스템에 업로드하고 탐지모델·탐지구간·탐지인물 등을 설정하면 진위 여부를 즉각 판별한다. 탐지 시간은 통상 5분에서 10분 정도다. 회사에 따르면 한국인 데이터 100만건, 아시아 계열 인종 데이터 13만건을 포함해 총 520만건의 데이터 학습을 더해 탐지율을 높였다.
딥브레인AI 관계자는 “사람의 눈에는 보이지 않지만, AI가 봤을 때는 뭉개지거나 미흡한 부분들이 있다”며 “조작됐다고 보일 경우, 몇 퍼센트의 확률로 가짜인 영상일 것이라고 알려주는 형태”라고 설명했다.
아예 딥페이크의 재료를 제공하지 않는 경우도 있다. 자라소프트의 ‘블러미’는 AI 기반 영상 모자이크 서비스다. 웹사이트에 접속해 사진, 영상을 올리면 몇 초 만에 자동으로 모자이크 처리를 해준다. 고객 상당수는 어린 자녀나 아동의 얼굴 노출을 막기 위해 사용한다는 전언이다. 아예 딥페이크로 재료로 쓰이는 것을 막는 방식이다. 10대가 피해자의 다수인 상황에서 꼭 필요한 경우가 아니면 얼굴을 가려 혹시 모를 딥페이크 피해를 막는다.
최경진 가천대 법과대학 교수는 딥페이크가 쓰이는 맥락에 따라 규제 정도를 달리해야 한다고 조언했다. 딥페이크가 꼭 나쁜 것만은 아니라서다. 사망한 가족의 모습을 딥페이크로 구현하거나 사람의 실제 몸짓으로 구현할 수 없는 동작을 만들어내는 등 긍정적 효과도 있다.
최경진 교수는 “딥페이크가 사람들한테 주는 피해가 크고 확산이 빠르기 때문에 때문에 기존의 조문으로 (해결이) 안 된다면, 법을 개정해서라도 강력한 처벌로 가야 할 것 같다”면서도 “그렇지 않은 경우까지 딥페이크를 금지하는 것은 AI를 쓰지 말자는 이야기이므로 (무분별한 규제는) 바람직하지 못할 것”이라고 말했다.
글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network