인공지능이 저지른 불법 행위, 책임은 누가?

인공지능(AI) 챗봇이 성희롱적인 표현을 한다면 어떻게 될까? AI가 딥페이크를 만들어 보이스피싱을 한다면 처벌은 어떻게 해야 할까? 

AI에 대한 우려가 현실이 됐다. 지난해 프랑스 헬스케어 기업 나블라에서 만든 정신과 챗봇은 모의 환자에게 자살을 권유했다. 중국에서는 로봇이 에스컬레이터에서 넘어져 사람을 치는 사고가 발생했다. 완벽한 줄만 알았던 AI가 일으킨 손해와 배상책임은 누구에게 물어야 하는 것일까.

질문에 답을 얻기 위한 토론장이 열렸다. 과학기술정보통신부는 지난 9일 서울 강남구 코엑스에서 ‘인공지능의 사고와 범죄, 누가 어떻게 책임질까’라는 주제의 세미나를 열었다. AI, 법, 인문사회, 기술 분야 전문가들이 참석해 AI에 대해 토론했다.

“AI, 범죄 활용 가능성 높다…지금이라도 법 만들어야”

먼저, 지금도 AI가 범죄에 활용되고 있어 AI 불법행위 처벌 등 관련 법 제도를 만들어야 한다는 제언이 나왔다. 이상직 법무법인 태평양 변호사는 “AI 범죄는 표적 대상과 속임수가 정교해 통찰력을 가진 사람도 속을 수밖에 없는 구조”라며 “AI 범죄는 다양한 불법이 결합되어 피해 복구가 신속하게 이뤄지지 않는 특징이 있다”고 설명했다.

이어 “현행 법상 AI 챗봇이 이용자에게 명예훼손 발언을 했어도 이용자는 명예훼손죄를 인정받을 수 없으며, AI가 범죄에 동원됐을 때도 이를 처벌할 방법이 현재로서는 모호하다”고 지적했다.

가상공간인 메타버스에서 범죄가 발생할 가능성을 고려해야 한다는 의견도 나왔다. 구태언 법무법인 린 변호사는 “메타버스 세상은 하나의 공간에서 전 세계인이 어우러지기 때문에 범죄 발생 시 처벌이 더 어렵다”며 “지금은 금융기관을 통해 보이스피싱 방지 서비스를 하고 있으나, 블록체인과 연결된 메타버스 내 딥페이크 보이스피싱 범죄는 막을 방법이 없다”고 말했다. 이어 사회 전반적으로 대응할 공동체계를 마련해야 한다고 촉구했다.

AI, 진짜 불법 행위를 저지를까?

AI가 인간에게 손해나 피해를 줄 수 있는 사례 소개가 이어졌다. AI를 흔히 접할 수 있는 서비스 중 하나가 투자다. AI 기술이 적용된 로보어드바이저를 통해 투자를 했다가 손해를 봤을 때 책임 주체를 어떻게 정해야 할지에 대한 토론이 이어졌다.

이승윤 카카오페이 변호사는 투자 위험(리스크) 가능성에 대한 구체적인 설명이 필요하다고 주장했다. 현재 로보어드바이저 사용에 따른 위험 안내가 단순하다는 지적이다.

이 변호사는 “AI를 통해 투자하는 건 사용자이기 때문에 책임은 본인에게 있다는 수준”이라며 “구체적인 내용이 없기 때문에 리스크 가능성 고지를 했다는 이유만으로 면책 가능성이 있을까라는 문제로 연결될 수 있다”고 주장했다.

두 번째 사례는 자율주행차 사고다. 자율주행차가 운전자 혹은 승객에게 신체적 손상을 가했을 때 책임을 어디에 물어야 하는 것일까. 관련해 법조계에서는 현행법상 운전자가 책임질 가능성이 있다고 주장했다.

최경진 가천대 변호사는 “자율주행차라도 자동차손해배상보장법상 운행지배나 운행을 통해 얻는 이익이 운행자에게 있다면 책임은 운행자에게 있다”며 “본인이 자율주행모드로 운전했을 때 사고가 날 경우 운행자는 직접 운전을 하지 않았어도 손해배상의 책임은 운행자에게 있다”고 전했다.

이어 AI로 인한 정신적 손해배상 청구에 대한 토론도 이어졌다. 대표적인 사례로 스캐터랩에서 개발한 페이스북 메신저 기반의 AI챗봇 이루다가 있다. 이루다는 서비스 출시 초기, 좋은 반응을 얻었으나 반 윤리적 채팅 내용을 알고리즘화한 것이 논란이 되면서, 서비스를 종료했다.

관련해 이기숙 변호사는 “챗봇으로 인한 손해가 발생했을 때 배상 청구의 책임을 AI제작자가 지게 하는 것을 피해야한다”고 주장했다.

현행 법 제도로 AI가 문제를 일으켰을 때 손해배상을 청구할 수 있는지, 부족하다면 어떤 부분에서 보완할 수 있는지에 대한 논의가 이어졌다. 법조계에서는 AI가 손해를 일으켰을 때 기존 손해배상 책임과는 다른 문제가 있다고 지적했다.

이근우 법무법인 화우 변호사는 AI가 저지른 사건 사고의 원인 규명이 힘든 이유를 ‘블랙박스’라는 개념을 통해 설명했다. 이근우 변호사는 “인공지능에 입력한 데이터로 오류가 발생하면 역추적을 통해 잘못된 입력값을 찾아야 한다”며 “역추적하는 과정에서 어디에서 오류가 발생했는지 개발자도 정확히 알 수 없는데, 이런 현상을 블랙박스라고 한다”고 설명했다.

글. 바이라인네트워크
<홍하나 기자>0626hhn@byline.network

관련 글

첫 댓글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다