페이스북은 자해하는 사용자 라이브를 중단시키지 않는다

페이스북이나 인스타그램은 사용자가 자해하는 라이브 영상을 올릴 경우 이 영상을 즉각 차단하지 않는다. 철저하게 커뮤니티 규정에 따라 판단한 것이다. 커뮤니티 규정은 페이스북 운영 정책을 이야기한다. ‘사람’이 곧 콘텐츠인 페이스북과 인스타그램은 페이스북 운영 정책을 공동체 규정으로 정의한다.

커뮤니티 규정 간단 요약

커뮤니티 규정은 총 25가지다. 크게는 폭력 및 범죄행위, 안전, 불쾌한 콘텐츠 등으로 나누며, 세부적으로는 혐오 발언, 아동 나체 이미지 및 아동 성 착취, 성인 성 착취, 따돌림 및 괴롭힘, 자살 및 자해 등을 금지하는 25개의 규정으로 이뤄져 있다. 페이스북코리아에서 열린 미디어 세션에서는, 이 커뮤니티 규정을 만드는 멤버 중 한국인인 유동연 매니저가 직접 커뮤니티 규정에 대해 설명했다. 커뮤니티 규정은 50개 이상의 언어로 지원되며, 24시간 상시 운영되고, 모니터링 인력은 전 세계에서 1만5000명, 지원업무 포함 3만5000명이 투입되고 있다.

지원인력 역시 2년 전 대비 3배 이상 늘었지만, 게시물을 모니터링하는 AI의 사전 조치 역시 많이 늘었다고 한다. 사전 조치는 신고가 들어오기 전 규정 위반 게시물에 대한 조치를 말한다.

유동연 매니저

AI의 사전조치는 현재 90% 이상의 수준까지 올라갔으나 혐오 발언, 따돌림과 괴롭힘 등의 콘텐츠는 AI의 사전조치보다는 사람의 모니터링에 더 의존한다. 문화적 맥락이 있고 비꼬기 등의 어려운 문제도 있기 때문이라고 한다.

커뮤니티 규정 위반 게시물의 사전조치는 90%에 달하고 있다

커뮤니티 규정 재정은 문제를 인식하는 것부터 시작한다. 정치·사회·커뮤니티의 새 트렌드를 반영해 기존 정책을 개정하고, 규정 간 우선순위를 부여해 작성한다. 특히 특정 정책(자살·자해)은 전문가와 논의를 꼭 거쳐 규정을 정한다.

규정은 전 세계에서 동일하게 작성하지만 적용은 조금 다르다. 예를 들어 북유럽에서는 토플리스로 태닝하는 것이 익숙하고 꼭 필요한 일이지만(일조량 부족의 영향이 있다), 이러한 게시물은 중동국가에서 받아들여질 수 있는 건 아니기 때문이다. 다만 아동 착취, 나체 이미지, 자살·자해, 혐오 발언 등은 전 세계에서 동일한 기준과 맥락 판단을 통해 제거한다. 게시물을 제거할 때는 ‘커뮤니티의 안전’과 ‘표현의 자유’의 균형을 추구한다.

예를 들어 ‘국수주의는 정신병’이라고 게시물을 올렸다고 치자. 이 게시물은 페이스북에서 허용된다. 구체적인 사람이 아니라 국수주의에 대한 공격을 했기 때문이다. 그러나 ‘쪽바리’ 등의 단어를 썼다면 게시물 작성 제한 대상이 된다. 특정 국가의 전체 사람을 비난한 것으로 치부되기 때문이다.

자살 및 자해에 대한 콘텐츠는 페이스북 규정 중에서도 가장 순위가 높고 응급 대처가 되는 영역이다. 페이스북은 이러한 게시물에 대해 스스로 판단하지 않으며 다양한 콘텐츠 유형에 대해 자살예방센터 또는 전문가와 함께 대처방안을 파악해 모니터링 시 대처한다. 자해나 자살에 대해서 우호적인 태도를 보이면 대부분 삭제되며, 섭식장애 등도 자해로 판단해 섭식장애를 옹호하는 게시물도 삭제한다.

이렇게 자살이나 자해를 암시하는 콘텐츠가 올라왔다고 하면, 사용자에게 대처방안을 알려주는 소스를 전달하고 게시물을 중단시키는 조치를 하고 있다. 이중 자해 영상을 실시간으로 라이브하고 있을 경우, 페이스북은 해당 영상을 바로 중단시키지 않는다. 이유는 자해 당사자를 더욱 고립시켜 더 극단적 선택을 하게 만들 수 있다는 전문가들의 의견 때문이다. 페이스북은 라이브 영상을 멈추는 대신 경찰에 연락하고 해결방안을 사용자에게 전달한다.

커뮤니티 규정은 거의 모든 영역에 적용된다

페이스북이 이처럼 빠른 대응으로 게시물에 대한 사전 조치를 꾸준히 하고 있다. 자살 관련 사전 조치된 콘텐츠는 지난 분기보다 25% 늘어난 250만건이다. 해당 수치는 페이스북 커뮤니티 규정에 대한 보고서에서 확인할 수 있다.

글. 바이라인네트워크
<이종철 기자> jude@byline.network

 

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다