사생활 털어놓는 챗GPT, 개인정보 괜찮을까
샘 알트먼 “챗GPT 대화, 법적으로 보호받아야”
개인정보법 틀 밖의 생성형 AI…컴플라이언스 정비 시급
챗GPT 등 생성형 인공지능(AI)에 사람들이 점점 더 민감한 개인정보를 입력하면서, 대화 내용의 법적 보호 필요성이 제기되고 있다.
샘 알트먼 오픈AI 최고경영자(CEO)는 최근 챗GPT 사용자와의 대화에도 법적 특권을 적용해야 한다고 주장했고, 국내 전문가들도 생성형 AI 학습에 활용되는 개인정보의 보호와 이를 관리할 컴플라이언스 체계 마련이 필요하다는 점을 강조하고 있다.
샘 알트먼 “챗GPT와의 대화, 상담처럼 보호받아야”
지난 24일 알트먼 CEO는 테오 본의 팟캐스트에 출연해 “챗GPT와 사용자 간 대화는 법률·심리 상담 수준으로 민감할 수 있다”며 “관련 정보를 법적 특권으로 보호해야 한다”고 주장했다.
그는 “사람들이 챗GPT에 자신들의 인생 고민이나 정신적·법률적 상담을 털어놓고 있다”며, 현재처럼 기업이 자유롭게 접근하고 활용할 수 있는 구조가 “매우 잘못된 것”이라고 지적했다. 이어 “치료사나 변호사와의 대화가 법적으로 보호받듯, 챗GPT에 입력된 정보 역시 동일한 보호 수준을 적용받아야 한다”고 강조했다.
미국에서 법적 특권(legal privilege)은 변호사·의뢰인 간 상담이나 치료사와 환자 간 대화 등 민감한 정보에 대해 법정 증거로 제출하지 않아도 되는 권리를 의미한다. 이러한 정보는 강력한 비밀 보장 대상이며, 사법기관이나 제3자가 임의로 열람할 수 없다. 알트먼은 이 개념을 챗GPT 대화에도 적용해야 한다고 주장한 셈이다.
알트먼 CEO는 “더 많은 사람들이 챗GPT를 사용하기 전에 개인정보 보호에 대한 법적 명확성을 확보하는 것이 합리적이라고 생각한다”고 덧붙였다.
오픈AI는 2023년부터 챗GPT가 수집·학습한 데이터의 범위와 처리방식에 대한 문제로 뉴욕타임즈와 저작권 소송을 벌여왔다. 지난 4월 미국 연방 법원은 챗GPT가 생성한 대화 내용을 증거로 제출하라는 명령을 내리기도 했다.
전문가 “기업 보호 논리이자, 개인정보 컴플라이언스 정비 계기”
이와 관련해 한국인터넷진흥원(KISA) 인터넷법제도포럼 의장을 맡고 있는 이상직 변호사는 “샘 알트먼이 챗GPT 대화에 법적 특권을 적용하자고 한 것은 단순히 이용자 보호 차원만은 아닐 것“이라며 “AI를 개발하는 기업의 입장에서 자사 서비스에 입력된 정보를 제3자나 국가기관이 쉽게 들여다보는 걸 막기 위한 의도도 있다고 본다. 예컨대 수사기관이나 정부가 고객 데이터를 들여다보려는 상황에서, 이건 법적으로 보호받아야 할 정보’라는 틀을 만들어야 자신들의 시스템과 고객 신뢰를 지킬 수 있기 때문”이라고 평가했다.
또한, 이 변호사는 샘 알트먼이 이번 발언이 ‘생성형 AI에 입력하는 개인정보가 준법 경영(컴플라이언스) 체계 안에서 관리돼야 한다‘는 원칙을 상기시킨 점에서는 의미가 있다고 설명했다.
그는 “생성형 AI는 기존의 ICT(정보통신기술) 서비스와는 방식이 다르다”며, “기존 서비스는 기업이 이용자에게 명시적으로 동의를 받아 개인정보를 수집했다면, 생성형 AI는 사람들이 스스로 민감한 정보를 입력하는 구조여서, 개인정보를 처리하는 기업이 더욱 조심해야 한다”고 설명했다.
이어 “자발적으로 입력된 정보를 기업이 단순 응답 생성 외의 다른 목적으로 활용해서는 안 된다”며 “알트먼의 주장대로, 챗GPT에 입력된 대화가 법적으로 보호받기 위해서는 먼저 기업이 사용자의 개인정보를 철저하게 보호하고 있다는 신뢰가 전제돼야 한다”고 짚었다.
아울러 “결국, 규제기관과 기업이 함께 AI 시대의 개인정보에 대한 컴플라이언스 체계를 제대로 갖추는 것이 핵심”이라고 강조했다.
현재 우리나라의 개인정보보호법은 생성형 AI 환경에서의 개인정보 처리 구조를 구체적으로 규정하고 있지는 않다. 기존 법제는 기업이 명시적으로 동의를 받아 개인정보를 수집·활용하는 방식에 초점을 맞추고 있으며, 이용자가 스스로 정보를 입력하고 AI가 이를 학습·재활용하는 구조에 대한 별도 기준은 마련돼 있지 않다. 이에 따라 생성형 AI 서비스에 입력된 개인정보가 어떻게 수집·저장·활용되는지에 대한 법적 처리 기준은 아직 정비가 필요한 상태다.
이러한 흐름 속에 개인정보보호위원회(이하 개인정보위)는 지난해 7월 ‘AI 개발·서비스를 위한 공개된 개인정보 처리 안내서‘를 발간하고, AI 학습용 공개 데이터를 처리할 때 적용할 수 있는 가이드를 제시했다. 안내서는 ‘정당한 이익’ 조항을 근거로 AI 개발 목적의 개인정보 처리 요건 3가지(▲목적의 정당성 ▲처리의 필요성 ▲이익 형량)을 명시했으며, 기술적·관리적 보안조치와 정보주체의 권리 보장 방안도 구체화했다.
개인정보위 관계자는 “지난해 제시한 안내서 외에, 추가로 AI 개발사의 개인정보 처리 기준에 대한 문서를 추가로 준비 중”이라고 밝혔다.
글. 바이라인네트워크
<곽중희 기자>god8889@byline.network