“AI 기본법, 하위법령서 사업자 역할·의무 명확해야”

내년 1월 ‘인공지능(AI) 발전과 신뢰기반 조성 등에 관한 기본법(이하 AI 기본법)’ 시행을 앞두고 시행령과 하위법령 논의가 활발하다. 법안에서 모호한 인공지능 사업자의 역할은 구체적으로 정의하되, 진흥에 초점을 맞춰 과도한 의무와 책임은 줄여야 한다는 목소리가 나왔다. 개발 사업자와 이용 사업자로 단순하게 구분되어 있는 이해관계자를 구체화하고, 명확한 의무를 부여해야 한다는 지적이다.

8일 국회의원회관 제2소회의실에서 ‘인공지능기본법의 발전방향 모색:혁신과 신뢰 사이의 균형적 해법’을 주제로 세미나가 열렸다.

이날 ‘인공지능기본법의 합리적 규율 및 발전방안’을 주제로 발표한 정원준 한국법제연구원 AI법제팀 팀장은 가장 먼저 법률의 ‘불명확성’을 없애야한다고 이야기했다. AI 기술이 급속도로 발전하면서 명확히 정의하기 어려운 부분들에 법안을 적용하려고 하다 보니, AI 기본법이 지나치게 포괄적이라는 지적이다.

정원준 팀장은 “문제는 하위 법령이나 가이드라인을 통해서만 구체적인 내용이 기술된다고 한다면, 법적 불안 요소가 커진다”며 “기본법이 기본법으로서 어느 수준에서 구체적으로 규율할 건지 여부, 그리고 나머지는 개별법에서 어떤 부분을 위임할 것인지, 또 개별법에 어떤 내용들과 연계할 것인지 하는 부분들이 굉장히 중요하다”고 강조했다.

정 팀장은 “AI 기본법은 굉장히 큰 범위의 법안으로 출발한 만큼, 개별법과 연계성을 고려하고, 체계성을 만들어 나가야 하는 부분들이 필요하다”고 덧붙였다.

8일 국회의원회관 제2소회의실에서 열린 ‘인공지능기본법의 발전방향 모색:혁신과 신뢰 사이의 균형적 해법’ 세미나에서 발표하는 정원준 한국법제연구원 AI법제팀 팀장

그는 법안의 명확성 확보를 위해서 수범대상은 구체적으로 정의하되, 의무와 책임의 범위는 조금 더 모호성을 남겨두는 최소한도의 운용이 필요하다고 이야기했다. 하위 법령 혹은 가이드라인에 지나치게 구체적인 규제 내용들을 담다 보면, 포괄적인 규제 입법 형성으로 흘러갈 수 있다는 분석이다.

또, 입법의 방향에 있어서 원칙적으로 금지 혹은 개별 영역에서 이미 AI 규율 법체계 및 제도가 있다면, 개별법과 연계할 수 있는 규정이 필요하다고 주장했다. 정 팀장은 “이미 개별법에서 디지털 의료법이라든가 게임 산업 등에서 안전과 규제에 대한 법안들이 있다면 그 법에 일정 부분 일임하는 방법도 있다”고 제안했다.

이어 ‘고영향 인공지능시스템 규제 체계의 현황과 개선 방향’에 대해 발표한 윤혜선 한양대학교 교수는 “고영향 AI 규제 체계가 AI 기본법의 목적을 달성할 수 있느냐”부터 질문했다.

윤혜선 교수는 “우리 AI 기본법의 목적과 핵심 철학은 진흥과 규제의 균형을 맞추고, 그다음에 인공지능에 대한 신뢰를 우선시하고, 그걸 통해서 국가 경쟁력을 확보하겠다라는 내용을 담고 있다”고 설명했다. 이어 그는 “세계는 인공지능 활용에 있어 진흥에 많이 초점을 맞추고 규제나 안전성은 뒤로 후퇴한 측면이 있다”며 “특히 미국과 중국을 중심으로 인공지능 기술 패권 경쟁이 굉장히 심해지고 있는 상황에서 과연 우리의 이 제도가 목적한 바를 달성할 수 있을까라는 질문을 드리고 싶다”고 덧붙였다.

설명에 따르면, AI 기본법의 규제 체계는 다원적이다. 규제는 크게 세 가지 ▲활용 분야 기준 ‘고영향’ ▲연산량 기준 ‘고성능’ ▲기능 기준 ‘생성형’으로 접근하고 있다. 각 규제는 강한 규제가 아닐 수 있지만, 두 가지 혹은 세 가지 등 동시에 규제를 적용한다면 중복 규제로 인한 부담이 크다고 지적했다.

고영향 AI는 사람의 생명이나 신체의 안전, 헌법에서 보장하고 있는 기본법에 중대한 영향을 미치거나 위험을 초래할 수 있는 인공지능 시스템이다. 윤혜선 교수는 “고영향 AI를 규제 대상으로 삼는 데 있어서 우리나라 인공지능 사업자는 개발 사업자과 이용 사업자로 구분이 되고 있고, 인공지능 생태계를 고려해 봤을 때 굉장히 단순한 접근 방식”이라고 목소리를 높였다.

개발 사업자는 인공지능을 개발해 제공하는 자를 뜻하고, 이용 사업자는 개발 사업자가 제공한 인공지능을 이용해 제품 및 서비스를 제공하는 자를 의미한다. 법안을 살펴보면 고영향 AI 시스템을 개발하거나 이용하는 사업자는 여러 의무가 부과된다.

우선, 사업자는 ▲고영향 AI 해당 여부 사전 검토 의무 ▲고영향 AI 제공 시 사전 검증 및 인증 노력 ▲사전 기본권 영향 평가 노력 ▲투명성 확보 의무로 AI 기반 운용 사실을 이용자에게 사전 고지 ▲안전성 및 신뢰성 확보 조치 등 여러 의무가 따른다. 서비스 제공 전부터 제공 후, 그리고 생애 주기 내내 적용되는 의무다. 투명성 확보 의무를 위반하면 3천만원 이하 과태료가 부과된다. 의무 감독을 위한 자료 제출 요구나 현장 조사, 시정명령 및 중지 명령 등 실효성 확보 수단도 마련하고 있다.

윤 교수는 “이것이 우리나라 고영향 인공지능 시스템의 전반적인 구조”라고 설명했다. 하지만 그는 “수범자가 너무 단순하게 구성되어 있는데, 사실 AI 생태계 안에 이해관계자가 굉장히 많이 존재한다”며 “앞서 말한 의무들을 ‘누가, 어떻게, 어떤 의무를 나눠서 부담하느냐’에 대한 논의가 없다”고 짚었다.

법안에서 단순하게 수범자를 구성한 탓에 인공지능 사업자(개발 사업자, 이용 사업자)가 모든 의무를 부담하는 구조다. 각각의 역할과 역량에 대한 고려 없이 획일적인 의무가 부과되었다는 지적이다. 윤 교수는 “이것을 시행령으로 정리하겠다고 하는데, 다른 나라들은 그렇게 하지 않는다”며 “우리 행정법 관점에서 적법한 것인지 타당한 것인지 좀 검토할 필요가 있다”고 강조했다.

다음으로 강정희 법무법인 태평양 변호사는 ‘AI 시대의 신뢰를 위한 투명성 제도 설계’를 주제로 발표했다. 그는 인공지능 사업자의 투명성 의무 3가지 ▲사전 고지(AI 기반 운용 사실 사전 고지) ▲표시 의무(생성형 AI 표시) ▲딥페이크(AI 생성 사실 고지 및 표시)에 집중했다.

8일 국회의원회관 제2소회의실에서 열린 ‘인공지능기본법의 발전방향 모색:혁신과 신뢰 사이의 균형적 해법’ 세미나에서 발표하는 강정희 법무법인 태평양 변호사

강정희 변호사는 “사전 고지 의무 같은 경우, 개발 사업자와 이용 사업자 중에 누가 이 의무를 져야 한다는 것이 굉장히 애매모호하다”며 “이 상태로 두면 계약 분쟁이 벌어질 가능성이 굉장히 많다”고 설명했다. 그는 “소비자와 이용자에서 만남의 접점에 있는 이용 사업자 같은 경우, 사전 고지를 하고 싶어도 개발 사업자가 그 기능을 탑재하지 않은 경우에는 할 수 없다”고 예시를 들었다. 법적 책임에 대한 분쟁이 일어날 경우, 누구의 책임인지 모호하다는 이야기다.

또, 그는 “고지에 있어서 시행령으로 구체적으로 규정할 것이라 생각하지만, 어느 정도 범위가 있어야 예측 가능성을 가질 수 있는데 전혀 어떻게 해야 하는지 방식이 없다”고 지적했다. 시행령보다 법령에 어느 정도 예측할 수 있는 범위가 규정되어야 한다는 의견이다.

다음으로 강 변호사는 “이용자가 누구인가도 굉장히 불분명하다”며 “의료 진단 시스템을 예시로 들면, CT나 MRI 등을 분석하는 소프트웨어를 만든 개발 사업자, 그 기능을 탑재해서 진단하는 의료기기를 만든 사업자, 해당 의료기기를 진단에 활용하는 병원, 병원의 의사, 직접적으로 영향을 받는 환자 등 수많은 이해관계자들 중 누가 ‘이용자’인지 모호하다”고 지적했다. 위와 같은 상황에서는 고지 대상이 병원인지, 환자인지, 의사인지 등 불명확해진다.

따라서 그는 “환자는 영향받는 자가 될 텐데, 영향받는 자에 대해서는 고지 의무에 대한 언급이 없다”며 “이런 부분에 대해서 해결이 되어야 한다”고 이야기했다.

마지막으로 발표에 나선 이승민 성균관대학교 교수는 ‘인공지능기본법의 규제적 요소에 대한 분석’을 주제로 이야기했다. 그는 고영향 AI에 관한 법안 중 “사실 조사 규정에 시정 조치 규정이 같이 있는 독특한 입법 규정”이라며 “보통 조치에 관한 규정은 별도 조항으로 되어 있는데, 사실 조사에 같이 있다”고 짚었다.

이승민 교수는 “바람직하지는 않은 것 같다”며 “실무에서 사실 조사는 대부분이 법 위반 사실에 대한 조사, 그래서 법 위반 행위에 대한 행정 조사를 지칭한다”고 말했다. 설명에 따르면 사실 조사는 일종의 권력적인 성격을 갖는 경우가 많다. 다만, AI 기본법에서는 조사를 방해하거나 기피, 거부 시 별도 제재 규정을 두고 있지 않다.

따라서 그가 분석하기에 AI 기본법상 사실 조사는 비권력적인 조사다. 이 자체로는 침익적 성격이 크지 않아, 조사 자체를 거부할 수도 있고 조사 과정에서 방어권 행사가 가능하다. 시정 조치의 경우 처벌이 아닌 위험방지적 성격이 더 크다고 봤다.

이 교수는 “다만, 규정을 위반했는지 안 했는 지가 명확하지 않은데, 거기에 대해 시정 조치를 부과하면 문제”라며 “명하는 사람 입장에서도 어렵고, 이해하는 사람도 까다로운 작위의무나 책무 위반을 사유로 한 정부의 시정 조치는 시장에 대한 아주 구체적이고 적극적인 개입이 될 수 있다”고 우려했다.

마지막으로 그는 “이 법은 진흥에 보다 방점을 둔 법제라고 국회나 정부에서도 여러 차례 얘기했기 때문에 유의할 필요가 있다”라며 “과태료는 대단한 규제는 아니지만, 앞서 말한 대상이 쌓이다 보면 건건이 다 과태료가 부과되어 총액이 커질 수 있고, 만만치 않다”고 목소리를 높였다. 이어 그는 과태료 부과 과정에서 공무 인력이 낭비된다는 점도 짚으며, 해당 조항 삭제를 권장했다.

이날 류제명 과학기술정보통신부 차관은 “AI 기본법의 취지를 잘 살릴 수 있도록 시행령 고시 등 하위 법령 마련에 박차를 가하고 있다”며 “대한민국이 AI 3대 강국으로 도약하는 데 민관의 모든 역량을 집중해 나갈 것”이라고 밝혔다.

글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다


The reCAPTCHA verification period has expired. Please reload the page.