트위치 “계정 정지 항의해라”…플랫폼 검열 한계 논의 물꼬 틀까

인터넷 방송 플랫폼 트위치가 계정이 정지된 스트리머에게 소명 기회를 주는 포털을 운영한다.

북미 IT 매체 테크크런치에 따르면 트위치는 최근 계정 정지에 직면한 스트리머에게 이의제기와 진행 상황을 살필 수 있는 포털을 새로 도입했다. 계정 검열 과정에서 정지 이유를 알려주지 않는 등의 소통 부재로 이뤄지는 부당한 상황을 최소화해 심사 과정을 투명하게 공개하겠다는 의도다.

앞서 트위치는 무분별한 계정 검열로 인해 다수의 스트리머에게 비판을 받곤 했다. 계정 정지에 이의제기하기 위해서는 스트리머가 직접 이메일을 넣어 항소하고 언제 올지 모를 답변을 기다려야 했다. 답변을 받더라도 이의가 기각된 이유에 대한 설명이 부족하다는 한계가 있었다.

트위치는 “계정이 검열된 이용자들이 여태껏 그에 대한 충분한 설명을 듣지 못했다는 것을 인지하고 있다”며 “스트리밍을 통해 수입을 얻는 크리에이터에게는 이 같은 항소 과정이 매우 중요하다는 걸 알았다”고 말하며 이의제기 시스템에 대한 개선 의지를 전했다.

부적절한 콘텐츠 검열, 크리에이터 “표현의 자유 침해”

소셜 미디어 플랫폼은 플랫폼에서 유통되는 부적절한 콘텐츠에 대해 막을 책임이 있다. 학대, 폭력, 증오 등을 이끌어내는 콘텐츠는 그 자체만으로도 사회적 파장을 낳기 때문이다. 소셜 미디어를 포함한 모든 플랫폼에서는 내부 운영 기준을 마련해 유해 콘텐츠 관리에 나서고 있지만, 그 과정에서 다소 억울한 상황을 맞이한 사례는 끊이지 않고 있다.

BJ 릴카와 뜨뜨뜨뜨도 최근 계정이 복구된 사례다. 2018년 트위치 계정의 영구 정지를 당한 이후 5년 만에 트위치로부터 계정을 복구받았다고 전했다.

2017년 당시 트위치 스트리머였던 둘은 사전 경고와 충분한 설명 없이 트위치로부터 계정을 영구정지 당했다. 당시 트위치코리아는 구독자 수를 올리는 불법 프로그램 ‘뷰봇’을 이용해 허위로 구독자를 부풀렸다는 이유로 계정을 정지시켰고 ‘본사와 대화하라’는 답만을 전달할 뿐 합당한 정지 이유를 밝히지 않았다. 이에 두 사람은 전달 받은 본사 메일로 이의제기를 했으나 답을 받지 못했고 별다른 소명 기회를 얻지 못한 채 아프리카TV로 방송 플랫폼을 옮겨야만 했다.

이는 트위치에만 국한되는 이야기는 아니다. 지난 2018년, 유튜브가 초등학생 ASMR 유튜버 ‘띠예’의 영상을 아무런 공지도 없이 삭제해 논란이 커진 바 있다.

당시 유튜브 측은 “미성년자가 등장하는 ASMR 비디오의 경우 성적 만족감의 상황적 신호가 발견되는 즉시 삭제 처리된다”며 “띠예의 영상에 다수의 신고가 접수됐다. 담당 팀의 리뷰를 거쳐 조처를 했다”고 입장을 설명했다. 그러나 띠예 측은 “정확히 어느 부분이 어떻게 위반됐는지 고지가 되지 않고 삭제만 계속되고 있다”며 억울한 심정을 밝히기도 했다.

유튜브에 따르면 사용자들이 신고한 콘텐츠는 담당 팀이 검토하게끔 돼 있다. 자체 모니터링 기술을 통해 삭제 여부를 결정하며, 가이드라인에 위반됐다고 판단된 콘텐츠는 삭제되거나 위반 수준에 따라 채널이 폐지될 수도 있다. 채널 소유자는 삭제 조치에 항의하는 의견을 보낸 것 외에는 별다른 소명 기회가 없다.

이에 플랫폼이 임의대로 이용자의 콘텐츠를 지우는 것에 대해 표현의 자유를 침해한다는 비판이 제기되기도 했다.

플랫폼 내 검열은 어떻게 이뤄지고 있을까

대개 많은 플랫폼에서는 모니터링 인력의 증원, 관련 팀의 신설 등의 방법으로 콘텐츠를 검열하고 있다. 인력 차원에서 차단하기 어려운 콘텐츠들은 인공지능 등의 기술 차단 시스템을 도입하여 부적절한 콘텐츠를 검열하고 있다. 그러나 전문가에 따르면 이는 많은 한계를 드러내고 있다.

홍남희 연세대 교수는 2018년 발표한 관련 논문에서 “누가 어떤 표현을 규제하는가, 누가 말할 수 있고 누가 말할 수 없는가를 고려하는 것은 표현의 자유를 사유하는 또 다른 방식”이라며 “플랫폼은 대중성의 기준에서 특정한 유형의 콘텐츠를 유도하고 그렇지 않은 주제에 대해서는 수익화를 차단할 수 있다”고 말했다. 실제로 무슬림, 흑인, 여성 등 소수자로서의 정체성이 플랫폼을 통해 드러날 경우 콘텐츠나 계정이 차단되는 사례가 빈번했다는 것이다.

아울러 콘텐츠를 검열하는 직원들은 주로 미국에서 임금이 낮은 서비스업에 종사해온 필리핀, 남미 여성들이 맡고 있다며 플랫폼이 ‘제3세계를 착취’하는 등의 상황으로 이어질 수 있다고 지적했다.

이외에도 콘텐츠를 검열하는 과정에서 또 다른 피해자를 낳을 수 있다는 점도 그 한계로 지적되기도 한다.

지난 12월 외신에 따르면 틱톡 내 유해한 콘텐츠를 검열하는 한 관리인이 아동 포르노, 성폭행, 참수, 동물 사진 절단과 같은 유해 콘텐츠에 지속해서 노출돼 정신적 피해를 받았다며 피해 보상을 요구하는 소송을 제기했다.

그는 직원들이 검수해야 하는 콘텐츠의 양이 너무 많아 동시에 3~10개의 영상을 처리해야 하는 상황이라며 회사가 이런 고통을 극복할 수 있도록 직원들에게 심리 지원을 제공하는 등의 가이드라인을 만들었음에도 제대로 지키지 않고 있다고 주장했다.

“이용자 자율규제의 결정권이 확대돼야 한다”

그렇다면 플랫폼에 ‘콘텐츠를 검열하는’ 권한은 어디까지 줘야 할까? 플랫폼은 어떠한 방법으로 유해한 콘텐츠로부터 이용자를 지키고, 이용자의 콘텐츠가 부적절하게 삭제되는 억울한 상황을 막을 수 있을까. ‘표현의 자유’를 침해한다는 관점과 부적절한 콘텐츠 유통을 막을 책임이 있는 플랫폼의 상황은 여전히 쳇바퀴 속에서 그 답을 찾지 못하고 있다.

이와 관련해 이용자가 자율규제할 수 있도록 결정권을 넓혀야 한다는 목소리도 나온다. 지난 24일 틱톡코리아가 연 청소년 보호 정책 발표 세미나에서 심영섭 경희사이버대학 미디어영상홍보학과 겸임교수는 “디지털 환경에서 소셜 미디어 플랫폼은 사용자들에게 자율 규제의 결정권을 확대, 제공할 의무가 요구된다”고 말했다.

콘텐츠 검열과 관련해 문제를 해결하는 가장 근본적인 방법은 이용자가 게시물을 올리기 전 자기 검열을 통해 문제 여부를 파악해야 한다는 것이다. 심 교수는 플랫폼의 사회적 책임에 대해 “사업자가 플랫폼을 적극 모니터링하고 자율적으로 초기 대응하는 것이 중요하다”면서 플랫폼의 선제 대응과 관련해서는  “민간에서의 상호협력을 통한 자율규제가 빠르게 마련되어야 한다”고 말했다.

글.바이라인네트워크
<박지윤 기자> nuyijkrap@byline.network

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다