애플, 새 OS에 아동 성음란물 감시 기능 넣는다…프라이버시 ‘논란’

애플이 5일(현지시간) 아동을 성적으로 학대하는 이미지(사진)를 감시할 수 있는 소프트웨어를 새로운 운영체제(OS)에 넣겠다고 발표했다. 애플은 ‘뉴럴 매치'(neuralMatch)라는 이름의 소프트웨어를 다음 달 출시되는 아이폰 OS 최신 버전인 iOS15에 추가할 예정이다.

애플은 아이클라우드 포토를 이용해 사진이 저장되면 암호화 및 인공지능(AI) 기술을 활용해 이 사진이 아동 성학대 사진인지 아닌지를 스캔해 식별하게 된다고 설명했다. 사진이 불법으로 알려진 사진(성학대 사진) 데이터베이스(DB)와 일치하는지 여부를 탐지해 해당 이미지가 불법인 것으로 밝혀지만 애플은 이를 비영리 민간단체인 실종학대아동방지센터(National Centre for Missing and Exploited Children)에 신고하게 된다. 이 소프트웨어는 동영상에 대해선 작동하지 않는다.

아동 성학대, 특히 아동 성적학대물(CSAM)을 돌려보는 것은 전 세계적 문제이지만 프라이버시 보호에 누구보다 앞장섰던 애플이 감시 기능 일부를 넣으면서 이의 일부를 허물겠다고 하는 셈이라 우려도 낳고 있다.

애플은 사용자들의 정보가 아이클라우드 서버에 도달하기 전에 암호화할 수 있는 옵션을 제공해 클라우드에서 사용자 파일을 스캔하는 걸 하지 않아 왔다.

정부와도 갈등을 빚었다. 지난 2015년 캘리포니아주 샌버나디노에서 벌어진 총기 테러 사건을 수사하기 위해 미국 연방수사국(FBI)이 애플 측에 용의자의 아이폰 잠금을 해제할 수 있도록 “전용 OS를 개발해 달라”고 요청했다. 하지만 팀 쿡 애플 최고경영자(CEO)는 이를 거절했다. FBI가 소송을 걸었지만 법원도 “애플이 FBI에 아이폰 잠금을 풀어주지 않아도 된다”는 판결을 내렸다. FBI는 이스라엘 사설 업체 도움을 받아 가까스로 용의자 아이폰 잠금을 풀어야 했다.

일부 전문가들은 “애플이 이제 수백만명의 개인 기기를 감시할 수 있는 문을 드디어 열었다”고 목소리를 높이고 있다.

전문가들은 애플이 현재는 아동 성학대만 탐지하도록 시스템을 운영하겠지만 정부 당국이 늘 원하는 테러나 반정부적 움직임 파악 등에도 나서게 될 수 있다고 보고 있다. 테러 방지에 도움이 될 수도 있겠지만, 만약 테러와 관련이 없는 사용자 데이터까지 마구잡이로 감시된다면, 또 오인되기까지 한다면 큰 문제가 될 수 있다.

애플 측은 “우리의 방식은 사용자 프라이버시 보호를 염두에 두고 설계됐다”면서 “이 소프트웨어가 사용자 사진(전체)을 스캔하지 않으며 DB의 이미지와 일치하는지만 스캔해 파악하는 것”이라고 반박했다.

CNN은 애플이 고객의 프라이버시를 보호하겠다는 약속, 그리고 정부나 법 집행기관으로부터 “테러와 아동 포르노 등 범죄 수사에 더 많은 지원을 해달라”는 요구 사이에서 타협점을 찾으려는 시도를 보이고 있는 것이라고 해석했다. 테크크런치 역시 범죄 수사에 대한 지원은 필요하다고 전제했다. 그렇지만 사용자들은 아이폰은 자신의 것일지라도 아이클라우드는 결코 자신의 것이 아니란 걸 상기해야 한다면서 프라이버시 문제가 발생할 수 있다고 지적했다.

글. 바이라인네트워크
<김윤경 선임기자> s914@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다