“챗GPT 사용 제한 기준 세밀하게 세워야…저작권 침해 판단 기준도 촘촘하게”

개인정보 무단 사용 우려와 아동, 청소년에게 유해한 정보를 제공할 수 있다는 이유로 세계 최초로 챗GPT 사용을 막았던 이탈리아. 최근 다시 빗장을 푼 가운데 더 세밀한 규제 논의가 필요하다는 의견이 제시됐다. 또 생성AI가 만든 제작물이 저작권을 침해할 경우에 대한 침해 판단 기준도 엄격하게 세우라는 제언이다.

한국법제연구원과 인공지능법학회는 공동으로 지난달 31일 오후 서울 페럼타워에서 ‘생성 AI 시대의 법정책적 과제와 대응방안’을 주제로 국제 컨퍼런스를 개최했다. 행사에서는 이탈리아의 사례로 보는 챗GPT로 인한 개인정보 유출 우려와 이에 대한 규제 방안이 집중 조명됐다.

발제에 나선 지우셀레 피노치아로(Giusella Finocchiaro) 볼로냐 대학 교수는 “개인정보 이슈와 관련해 챗GPT를 막았던 첫 번째 사례라 중요하게 바라봐야 한다”며 “더 깊은 논의가 필요하다”고 말했다.

앞서 지난 3월 이탈리아는 자국 내 챗GPT 접속을 차단했다. 챗GPT의 부정확한 답변이 유해할 수 있다는 이유였다. 또한 오픈AI가 챗GPT의 학습을 위해 개인정보 데이터를 수집할 법적 근거가 없는 것도 차단의 근거가 됐다.

지우셀레 피노치아로 볼로냐 대학 교수가 31일 컨퍼런스에서 이탈리아내 챗GPT 사용 금지 사례와 향후 방안에 대한 제언을 전하고 있다.

이탈리아 개인정보보호 당국은 오픈AI에 챗GPT의 데이터 수집과 처리 과정 정보를 공개하고, 부정확하게 생산한 정보를 고치거나 삭제할 수 있는 기능을 추가하라고 요구했다. 또한 아동 등 미성년자 보호를 위해 이용자 연령 확인 시스템 도입도 요청했다. 오픈AI는 당국의 조건을 받아들였고, 지난 4월28일 이탈리아 내 서비스가 재개됐다.

피노치아로 교수는 이번 사례를 통해 최소한 유럽 지역 차원에서라도 규제에 대한 논의가 더 깊어져야 한다고 강조했다. 그는 “개인정보 (보호) 문화가 전 세계적으로 확산돼야 하고, 나아가서는 더 많은 입법적 개입이 필요하다”고 말했다.

토론자들은 이와 같은 의견에 궤를 같이 하면서도 규제는 더 세밀한 판단 기준이 필요하다고 주장했다. 노태영 법무법인 김앤장 변호사는 “이미 아동과 청소년은 성인에  비해 새로운 기술에 대한 활용도가 높고 거부감도 낮다”면서 “성인의 기준으로 보호기준을 설정하고 일률적으로 서비스를 제한하는 것이 적절한 지 의문이 제기될 수 있다”고 말했다.

컨퍼런스에서는 생성AI 기술 확산에 따라 국내에서도 개인정보 처리기준과 저작권 침해 관련 입법 논의를 서둘러야 한다는 의견도 제시됐다. 강태욱 법무법인 태평양 변호사는 “(생성AI 모델) 학습을 위한 데이터의 증가는 개인정보 처리와 관련한 문제를 더욱 증가시킬 것”이라고 밝혔다.

또 생성AI가 침해할 수 있는 저작권 이슈에 대한 면책 규정도 도입해야 한다는 의견이다. 정원준 한국법제연구원 부연구위원은 “AI 생성물이 저작권을 침해하는 지 다투게 될 경우 공정이용 여부와는 별개로 판단 기준을 엄격하게 세워야 한다”며 “AI는 창작과정이 예측 불가능하고 사람의 통제가 아닌 여러 관여자를 통해 완성된다는 점에서 형사적 처벌 배제도 고려해봐야 한다”고 말했다.

글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다